يتنافس إيلون ماسك مع ChatGPT من OpenAI في سباق الذكاء الاصطناعي باستخدام روبوت المحادثة Grok الخاص به، وعلى الرغم من أن الرئيس التنفيذي لشركة xAI دأب على القول بأن Grok 4 نموذج أقوى من ChatGPT 5، إلا أن رده الوحيد أثار إعجابه.
وعلى منصة X، شارك مستخدم يُدعى كول تريجاسكيس لقطة شاشة من محادثته مع نموذج التفكير الخاص بـ ChatGPT 5 استسلم روبوت المحادثة OpenAI بعد تفكير دام 34 ثانية، قائلاً: "لا أعرف، ولا يمكنني التأكد من ذلك بشكل موثوق".
تواجه نماذج اللغات الكبيرة (LLMs) مثل ChatGPT تحديًا كبيرًا فيما يتعلق بالهلوسة، فغالبًا ما يُنتج الذكاء الاصطناعي معلومات غير دقيقة بثقة كاستجابة للمستخدم.
يُمثل رد ChatGPT 5 في هذه الحالة نقلة نوعية، حيث قرر روبوت المحادثة الاعتراف بعدم قدرته على تقديم معلومات، بدلاً من تقديم تفاصيل غير دقيقة لمجرد تقديم رد.
هذا لا يمنع انتشار المعلومات المضللة فحسب، بل يبني ثقة أكبر لدى المستخدم و بهذه الطريقة، سيعلم المستخدم أن النموذج لن يُقدم ردًا إلا عندما يكون واثقًا من صحة المعلومات.
ومنذ الإصدار الأصلي لـ ChatGPT في نوفمبر 2022، عملت OpenAI على منع احتمالية الهلوسة، و مع ChatGPT 5، لا تزال هناك نسبة 10% لمثل هذه الاستجابات غير الصحيحة.
وهذه الخطوات ضرورية لتطوير برامج الماجستير في القانون، و تهدف شركات الذكاء الاصطناعي إلى الوصول إلى الذكاء الاصطناعي العام (AGI) من خلال نماذجها.
يشير الذكاء الاصطناعي العام إلى نموذج ذكاء اصطناعي يتمتع بذكاء وفهم يُضاهيان الذكاء البشري. مع ذلك، يبقى هذا المفهوم نظريًا حتى الآن.
تُدرك OpenAI العيوب المحتملة فيما يتعلق بالهلوسة حتى مع ChatGPT 5 وتريد الشركة ثني المستخدمين عن استخدام النموذج كمصدر رئيسي، على الرغم من التقدم المستمر.
أكد نايك تورلي، رئيس ChatGPT، أنه لا يزال يتعين على المستخدمين التحقق من المعلومات الواردة من روبوت الدردشة، وصرح لموقع The Verge: "إلى أن أتأكد من أننا أكثر موثوقية من خبير بشري في جميع المجالات، وليس فقط في بعض المجالات، أعتقد أننا سنستمر في نصحك بالتحقق من إجابتك".
0 تعليق