تصویر شاخص: سولن فییسا از Unsplash.
تصویر شاخص: سولن فییسا از Unsplash.

استقرار مدل‌های DeepSeek-R1 بر روی Amazon Bedrock

DeepSeek یک ابتکار تحقیقاتی پیشرفته در زمینه هوش مصنوعی است که مدل‌های زبانی بزرگ (LLM) متن‌باز پیشرفته‌ای را توسعه

می‌دهد که با مدل‌های اختصاصی و بنیادی مانند سری GPT شرکت OpenAI و BERT شرکت Google رقابت می‌کنند. سری DeepSeek-R1 یک
مدل متن‌باز با عملکرد بالا است که توسط DeepSeek آموزش داده شده است تا قابلیت‌های استنتاجی بهینه شده را ارائه دهد و آن را
به ابزاری قدرتمند برای کاربردهای مختلف از جمله درک زبان طبیعی، تولید کد و تحقیقات علمی تبدیل کند.

با گسترش استفاده از هوش مصنوعی، استقرار کارآمد چنین مدل‌هایی برای کسب‌وکارها و توسعه‌دهندگان بسیار مهم است. یکی از چالش‌های

اصلی در استقرار هوش مصنوعی، نیاز به زیرساخت مقیاس‌پذیر است که بتواند تقاضای محاسباتی سنگین را مدیریت کند و در عین حال استنتاج
سریع و قابل اعتماد را ارائه دهد. Amazon Bedrock به عنوان یک راه‌حل با ارائه یک سرویس کاملاً مدیریت شده که توسعه‌دهندگان را
قادر می‌سازد مدل‌های بنیادین را بدون بار مدیریت زیرساخت اساسی در برنامه‌های خود ادغام کنند، ظاهر می‌شود.

با استفاده از Custom Model Import Bedrock، توسعه‌دهندگان می‌توانند مدل‌های از پیش آموزش‌دیده مانند DeepSeek-R1 را به یک

محیط امن، با دسترسی بالا و تأخیر کم که برای حجم‌های کاری تولید بهینه شده است، وارد کنند. همچنین سازمان‌ها را قادر می‌سازد تا از
قدرت هوش مصنوعی بهره ببرند و در عین حال از امنیت، مقیاس‌پذیری و مقرون به صرفه بودن Amazon Web Services بهره‌مند شوند.

این آموزش شما را در فرآیند گام به گام استقرار مدل DeepSeek-R1 Distill Llama بر روی Amazon Bedrock، از دانلود مدل و آماده

سازی آن برای استقرار تا فراخوانی آن از طریق AWS Bedrock API راهنمایی می‌کند. همچنین تکنیک‌های بهینه‌سازی، بهترین شیوه‌های
امنیتی و استراتژی‌های نظارت بر عملکرد را برای کمک به اطمینان از استقرار روان و کارآمد هوش مصنوعی بررسی خواهد کرد.

در پایان این راهنما، شما یک مدل DeepSeek-R1 کاملاً عملیاتی خواهید داشت که روی Amazon Bedrock اجرا می‌شود و قادر به ارائه

پاسخ‌های با کیفیت بالا برای کاربردهای مختلف مبتنی بر هوش مصنوعی است.

پیش‌نیازها

قبل از شروع، اطمینان حاصل کنید که موارد زیر را دارید:

  1. یک حساب کاربری فعال Amazon Web Services (AWS) با مجوز دسترسی به سرویس‌های Amazon S3 و Amazon Bedrock.
  2. سازگاری مدل. Amazon Bedrock از معماری‌هایی مانند Llama 2 پشتیبانی می‌کند و آن را با مدل‌های DeepSeek-R1 Distill سازگار
    می‌سازد.
  3. فایل‌های مدل Hugging Face، شامل:
    • وزن‌های مدل (فرمت .safetensors)
    • فایل پیکربندی (config.json)
    • فایل‌های توکنایزر (tokenizer_config.json، tokenizer.json، tokenizer.model)
  4. یک سطل Amazon S3 قابل دسترس برای ذخیره فایل‌های مدل.
  5. نقش‌ها و سیاست‌های مدیریت دسترسی و زیرساخت (IAM) پیکربندی شده برای اجازه دادن به استقرار مدل و دسترسی به API.

با داشتن این موارد، می‌توانید به استقرار ادامه دهید.

گام 1: نصب وابستگی‌های مورد نیاز

ابتدا، وابستگی‌های لازم را در محیط پایتون خود نصب کنید:

pip install huggingface_hub boto3

این دستور Hugging Face Hub را برای بازیابی مدل و Boto3 را برای تعاملات AWS نصب می‌کند.

گام 2: دانلود مدل DeepSeek-R1

در مرحله بعد، مدل DeepSeek-R1 Distill Llama را از Hugging Face دانلود کنید:

from huggingface_hub import snapshot_download

# Define model ID
model_id = "deepseek-ai/DeepSeek-R1-Distill-Llama-8B"

# Download the model to the local directory
local_dir = snapshot_download(
 repo_id=model_id,
 local_dir="DeepSeek-R1-Distill-Llama-8B"
)

این دستور فایل‌های مدل را واکشی کرده و آنها را در دایرکتوری مشخص شده ذخیره می‌کند.

گام 3: آپلود فایل‌های مدل در Amazon S3

برای استقرار در Amazon Bedrock، فایل‌های مدل را در یک سطل Amazon S3 آپلود کنید:

import boto3
import os

# Initialize S3 client
s3_client = boto3.client('s3', region_name='us-east-1')

# Define S3 bucket name
bucket_name = 'your-s3-bucket-name'

# Specify local directory
local_directory = 'DeepSeek-R1-Distill-Llama-8B'

# Upload files to S3
for root, dirs, files in os.walk(local_directory):
 for file in files:
 local_path = os.path.join(root, file)
 s3_key = os.path.relpath(local_path, local_directory)
 s3_client.upload_file(local_path, bucket_name, s3_key)

your-s3-bucket-name را با نام سطل S3 واقعی خود جایگزین کنید.

گام 4: وارد کردن مدل به Amazon Bedrock

پس از قرار گرفتن مدل در S3، آن را به Amazon Bedrock وارد کنید:

  1. در کنسول AWS به Amazon Bedrock بروید.
  2. Custom models و سپس Import model را انتخاب کنید.
  3. URI S3 را وارد کنید (به عنوان مثال، s3://your-s3-bucket-name/DeepSeek-R1-Distill-Llama-8B/).
  4. تأیید کرده و فرآیند وارد کردن را شروع کنید.

Amazon Bedrock مدل را برای استقرار پردازش و اعتبارسنجی می‌کند.

گام 5: استقرار و فراخوانی مدل

پس از وارد کردن، از Bedrock API برای فراخوانی مدل استفاده کنید:

import boto3
import json

# Initialize Bedrock client
bedrock_client = boto3.client('bedrock', region_name='us-east-1')

# Define model ID
model_id = 'your-model-id'

# Define input prompt
input_data = {
 'prompt': 'Explain the significance of transformers in NLP.',
 'max_tokens': 150
}

# Invoke model
response = bedrock_client.invoke_model(
 ModelId=model_id,
 ContentType='application/json',
 Body=json.dumps(input_data)
)

# Process response
output = json.loads(response['Body'].read())
 print(output)

your-model-id را با شناسه مدل Bedrock اختصاص داده شده خود جایگزین کنید.

بهینه‌سازی استقرار مدل

هنگامی که مدل را روی Bedrock مستقر کردید، راه‌های زیر را برای بهینه‌سازی آن در نظر بگیرید.

  1. فعال کردن مقیاس‌بندی خودکار: مقیاس‌بندی خودکار را پیکربندی کنید تا منابع محاسباتی را به طور پویا بر اساس ترافیک
    برای استفاده کارآمد از منابع تخصیص دهید.
  2. نظارت بر عملکرد مدل: از AWS CloudWatch برای ثبت معیارهایی مانند تأخیر استنتاج و حجم درخواست استفاده
    کنید.
  3. ایمن‌سازی نقاط پایانی API: اطمینان حاصل کنید که نقاط پایانی Bedrock شما با نقش‌های IAM و مجوز API gateway
    ایمن شده‌اند.
  4. بهینه‌سازی هزینه‌ها: به جای تهیه ثابت، از مقیاس‌بندی در صورت تقاضا استفاده کنید و در صورت عدم اهمیت زمان پاسخگویی،
    نمونه‌های محاسباتی کم‌هزینه‌تر را انتخاب کنید.

فراتر از استقرار اولیه، این ادغام‌های پیشرفته را در نظر بگیرید:

  1. تنظیم دقیق: مدل را با مجموعه‌های داده خاص دامنه اضافی سفارشی کنید.
  2. ادغام API: مدل را از طریق یک REST API برای تعامل یکپارچه با برنامه‌های وب یا تلفن همراه در معرض دید
    قرار دهید.

نتیجه‌گیری

استقرار مدل‌های DeepSeek-R1 Distill Llama بر روی Amazon Bedrock یک راه حل قوی، مقیاس‌پذیر و کارآمد برای اجرای برنامه‌های

مبتنی بر هوش مصنوعی ارائه می‌دهد. با زیرساخت بدون سرور Bedrock، می‌توانید LLMها را با حداقل تلاش ادغام و مدیریت کنید و به اطمینان
از استنتاج سریع، مقیاس‌پذیری و امنیت کمک کنید.

با استفاده از Amazon Bedrock، شما انعطاف‌پذیری لازم برای استقرار مدل‌های هوش مصنوعی پیشرفته را به دست می‌آورید و در عین حال

از زیرساخت ابری قوی AWS بهره‌مند می‌شوید. چه دانشمند داده، محقق هوش مصنوعی یا توسعه‌دهنده باشید، ادغام DeepSeek-R1 در Bedrock
به شما این امکان را می‌دهد که برنامه‌های قدرتمند مبتنی بر هوش مصنوعی را بدون پیچیدگی مدیریت GPUها، نقاط پایانی استنتاج یا
عملیات مقیاس‌بندی ایجاد کنید. برای جزئیات بیشتر، مستندات رسمی Amazon Bedrock را بررسی کنید. ساخت و ساز خوبی داشته باشید!

آیا می‌خواهید دانش خود را در مورد هوش مصنوعی گسترش دهید؟ OpenAI را با خروجی‌های ساختاریافته کشف کنید! راهنمای گام به گام

Andela را که برای توسعه‌دهندگان طراحی شده است، برای ساده‌سازی فرآیندها، افزایش دقت و بهینه‌سازی نتایج، بررسی کنید.