كيفية تنزيل وتثبيت GPT على نظام Linux

اقرأ في هذا المقال


GPT ، أو المحولات العامة المدربة مسبقًا ، هي نموذج لغة قوي طورته شركة OpenAI والذي أظهر أداءً رائعًا في مهام معالجة اللغة الطبيعية مثل إكمال النص والتلخيص والترجمة. إذا كنت من مستخدمي Linux مهتمًا باستخدام GPT لمشاريع معالجة اللغة الطبيعية الخاصة بك ، فستحتاج إلى معرفة كيفية تنزيلها وتثبيتها على نظامك. إليك دليل تفصيلي.

خطوات تنزيل وتثبيت GPT على نظام Linux

  • تحقق من متطلبات النظام لديك قبل تنزيل GPT ، تأكد من أن نظام Linux لديك يلبي الحد الأدنى من المتطلبات. تتطلب GPT نظام Linux بهندسة وحدة معالجة مركزية حديثة ، وذاكرة وصول عشوائي (RAM) بسعة 16 جيجابايت على الأقل ، وإصدار حديث من Python 3.x مثبت.
  • تثبيت Anaconda Anaconda هو مدير حزم شهير وتوزيع Python يتضمن العديد من حزم علوم البيانات شائعة الاستخدام. قم بتنزيل وتثبيت توزيعة Anaconda لـ Python 3.x من الموقع الرسمي.
  • إنشاء بيئة conda جديدة لمنع التعارض مع حزم Python الأخرى ، قم بإنشاء بيئة conda جديدة لـ GPT. افتح نافذة طرفية وقم بتشغيل الأمر التالي:

conda create –name gpt python=3.8

سيقوم هذا الأمر بإنشاء بيئة جديدة باسم “gpt” مع تثبيت Python 3.8.

  • تنشيط البيئة قم بتنشيط بيئة “gpt” عن طريق تشغيل الأمر التالي:

conda activate gpt

سيؤدي هذا إلى تنشيط البيئة ويسمح لك بتثبيت حزم خاصة ببيئة “gpt”.

  • قم بتثبيت الحزم الضرورية قم بتثبيت الحزم الضرورية لـ GPT عن طريق تشغيل الأمر التالي:

pip install transformers

سيؤدي هذا إلى تثبيت مكتبة Hugging Face Transformers ، والتي تتضمن نماذج GPT المدربة مسبقًا.

  • تنزيل نموذج GPT مدرب مسبقًا يمكنك تنزيل نماذج GPT المدربة مسبقًا من Hugging Face Model Hub. على سبيل المثال ، لتنزيل نموذج GPT-2 بمعلمات 117M ، قم بتشغيل الأمر التالي:

transformers-cli download gpt2

سيؤدي هذا إلى تنزيل النموذج إلى دليل ذاكرة التخزين المؤقت الافتراضي (~ / .cache / torch / transformers /).

  • اختبار التثبيت لاختبار عمل GPT بشكل صحيح ، افتح مترجم Python وقم بتشغيل الأوامر التالية:

import transformers
from transformers import pipeline

generator = pipeline(‘text-generation’, model=’gpt2′)
result = generator(“Hello, world!”, max_length=30, num_return_sequences=5)
print(result)

سيؤدي ذلك إلى إنشاء خمسة تسلسلات نصية تصل إلى 30 رمزًا باستخدام نموذج GPT-2.


شارك المقالة: