يعتمد ChatGPT على عدد قليل من نماذج الذكاء الاصطناعي المختلفة، مع GPT-4 Turbo للمشتركين الذين يدفعون وGPT-3.5 للجميع. كشفت OpenAI الآن عن نموذج جديد سيكون متاحًا للجميع قريبًا: GPT-4o.
GPT-4o (يبدو أن الحرف “o” يشير إلى “omni”) هو نموذج ذكاء اصطناعي جديد يتعامل مع النصوص أو الصوت أو الصور كمدخلات ومخرجات. وهذا يمثل تغييرًا كبيرًا عن نماذج OpenAI السابقة، والتي كانت أكثر تخصصًا وكان لابد من دمجها لأحمال عمل مختلفة. تم تصميم Google Gemini للعمل بطريقة مماثلة، لذا يبدو أن OpenAI تلحق بالمنافسة.
وفي منشور على إحدى المدونات، قالت شركة OpenAI إن GPT-4o “يمكنه الاستجابة لمدخلات الصوت في أقل من 232 مللي ثانية، بمتوسط 320 مللي ثانية، وهو ما يشبه وقت الاستجابة البشرية في المحادثة. وهو يطابق أداء GPT-4 Turbo على النص باللغة الإنجليزية والرموز، مع تحسن كبير على النص باللغات غير الإنجليزية، بينما يكون أيضًا أسرع بكثير وأرخص بنسبة 50% في واجهة برمجة التطبيقات. يعد GPT-4o أفضل بشكل خاص في الرؤية وفهم الصوت مقارنة بالنماذج الحالية”.
تعني قدرات الصوت والصوت المحدثة أن GPT-4o يمكن أن يتصرف بشكل أكبر مثل المساعد الافتراضي، وهو شيء جربته OpenAI وGoogle بنجاح متفاوت في الماضي. تخطط OpenAI لإضافة وضع صوتي “في الأسابيع المقبلة” مدعومًا بـ GPT-4o، والذي سيكون متاحًا أولاً لمشتركي ChatGPT Plus.
لا يعد GPT-4o بديلاً كاملاً لـ GPT-4 وGPT-3.5، على الأقل ليس بعد. قد يتصرف بشكل مختلف في بعض السيناريوهات، لأنه يتم تدريبه بشكل مختلف، لكن OpenAI تعد بأداء مماثل لـ GPT-4 Turbo في النص والاستدلال والذكاء الترميزي. الأهم من ذلك، أنه سيكون متاحًا على حسابات ChatGPT المجانية، والتي كانت مقتصرة على نموذج GPT-3.5 الأقل قدرة حتى الآن.
تم طرح نموذج GPT-4o الجديد الآن في ChatGPT، لكل من المستخدمين المجانيين ومشتركي ChatGPT Plus. سيكون له حد للرسائل، ولكن الحد سيكون “أعلى بخمس مرات” لمستخدمي Plus. سيحصل مشتركو ChatGPT Plus أيضًا على إمكانية الوصول إلى وضع الصوت “في الأسابيع المقبلة”، والنموذج الجديد متاح الآن كواجهة برمجة تطبيقات للمطورين لتجربته.