النقاط الرئيسية
- قد تقدم محركات البحث التوليدية للذكاء الاصطناعي إجابات مفيدة، ولكن الثقة تشكل مشكلة كبيرة بسبب عدم القدرة على التنبؤ.
- تظل الرقابة البشرية أمرًا بالغ الأهمية في نتائج البحث لضمان الثقة والدقة.
- حتى مع الذكاء الاصطناعي المتقدم، فإن الثقة في التكنولوجيا أكثر أهمية من أرقام الأداء.
إن الذكاء الاصطناعي التوليدي، على الأقل في أحدث مراحله، فعال في العثور على المعلومات وهضمها وتقديمها بطريقة مفيدة لأولئك الذين يبحثون عن إجابات. ولكن هل يمكننا حقا أن نثق في هذه التكنولوجيا كما هي الآن؟ هل يمكننا من حيث المبدأ أن نثق بها على الإطلاق؟
محركات البحث التي تعتمد على الذكاء الاصطناعي تعطي نتائج مثيرة للقلق
يبدو أن الجميع يضيفون الذكاء الاصطناعي إلى منتجات البحث الخاصة بهم. وقد قامت بعض الشركات، مثل Perplexity AI، ببناء نظامها بالكامل حول الذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة (LLMs). كما أضافت شركات البحث العريقة، ولا سيما Bing وGoogle، هذه التقنيات إلى محركات البحث الحالية لديها.
على سبيل المثال، تقدم جوجل الآن ملخصات الذكاء الاصطناعي حيث يقرأ طلاب الماجستير صفحات الويب حتى لا تضطر أنت إلى ذلك، ويعطيك إجابة مباشرة على سؤالك. وبصرف النظر عن كيفية استبعاد المواقع الفعلية التي تنتج المحتوى من الحلقة، فإن هذا مفيد بشكل مذهل عندما يعمل. ومع ذلك، تمامًا كما تكون روبوتات الدردشة التي تعمل بالذكاء الاصطناعي عرضة للمعاناة من “الهلوسة” أو ارتكاب أخطاء منطقية واستدلالية، فإن البحث بالذكاء الاصطناعي يمكن أن يقع فريسة لنفس المشكلات.
وقد أدى هذا إلى اقتراح الذكاء الاصطناعي لبحث Google لأشياء مثل إضافة الغراء إلى البيتزا وأكل الصخور، وأن هناك القطط على القمرمن جانبها، تتحرك جوجل بسرعة نحو قم بتصحيح هذه الأخطاءولكن هذا لا يعالج المشكلة الأساسية – الثقة.
يجب أن يكون هناك شخص مسؤول عن المعلومات الواردة في نتائج البحث
صدق أو لا تصدق، أنا إنسان حقيقي يجلس على لوحة المفاتيح هذه، ويكتب كلمات ستقرأها أنت. وهذا يعني أنه إذا قرأت هنا شيئًا لا معنى له، أو زائفًا، أو قد يسبب ضررًا، فلديك شخص يمكنه تحمل المسؤولية عنه. وعلى نحو مماثل، إذا استخدمت معلومات من وكالة أسوشيتد برس على سبيل المثال، وكانت هناك أخطاء واقعية خطيرة في تلك المادة، فلدي الحق في اللجوء إلى شخص آخر ارتكب خطأ أو حدث خطأ آخر لشرح المشكلة.
إننا نعلم كيف تم إنتاج المعلومات، ونعلم من المسؤول عنها. وهناك عواقب للإهمال، وهناك أنظمة قائمة (مثل المحررين البشريين وسياسات التحرير) تهدف إلى اكتشاف المشاكل قبل نشرها. بطبيعة الحال، لا يوجد أي من هذه الأنظمة مضمون ضد الأخطاء، ولكن هناك شخص ما يتحمل المسؤولية دائمًا.
حتى الآن، تميل أنظمة الذكاء الاصطناعي التوليدي إلى التصرف بطرق لا يستطيع حتى مبتكروها التنبؤ بها. فهذه النماذج التي تحتوي على مليارات أو حتى تريليونات المعلمات تشبه الصناديق السوداء حيث لا أحد يعرف على وجه التحديد ما يحدث بداخلها. وهذا هو السبب أيضًا وراء كونها واعدة وقادرة على إحداث الكثير من المتاعب، ولكن هذا يعني أن إيجاد حل آمن وجدير بالثقة أمر صعب.
حتى لو كان برنامج مثل برنامج جيميني من جوجل دقيقًا وموثوقًا به بنسبة 99%، فما زلنا نواجه مشكلة. بالطبع، نادرًا ما يكون البشر موثوقين إلى هذا الحد، ولكننا نادرًا ما نمتلك السرعة والحجم اللازمين لإحداث أضرار جسيمة محتملة لأخطائنا. ضع في اعتبارك أن جوجل تتعامل مع حوالي 10 … 8.5 مليار عملية بحث يوميًاإذا احتوت نسبة 1% فقط من عمليات البحث هذه على معلومات أو نصائح قد تكون ضارة، فهذا يعني أن 85 مليون شخص يتلقون معلومات إشكالية كل يوم!
وبعبارة أخرى، فإن المعايير المطلوبة لأنظمة مثل هذه لتقديم المشورة والمعلومات دون أي تدخل بشري مرتفعة للغاية، لدرجة أنه قد يكون من المستحيل في الواقع.
إذا لم يثق الناس في نتائج البحث التي تقدمها الذكاء الاصطناعي، فلن تكون التكنولوجيا ذات أهمية
ولكن يمكننا أن نتحدث عن أرقام أداء أنظمة الذكاء الاصطناعي هذه طوال اليوم، ولن يحدث أي فرق إذا لم يُنظر إليها على أنها جديرة بالثقة. فهناك العديد من التقنيات الواعدة التي تم إيقافها بسبب الافتقار إلى الثقة العامة. فقد جعلت الحوادث النووية الناس حذرين من الطاقة النووية. وكانت مأساة هيندنبورغ بمثابة المسمار الأخير في نعش المناطيد، على الرغم من أن التحول إلى الهيليوم من الهيدروجين من شأنه أن يجعل تكرار ذلك مستحيلاً. وبمجرد أن يُنظر إلى تكنولوجيتك على أنها غير جديرة بالثقة، فقد يكون من المستحيل تقريبًا تصحيح هذا التصور، حتى لو قمت بالفعل بإصلاح المشكلات.
إن إبقاء البشر على اطلاع دائم أمر لا مفر منه بغض النظر عن مدى ذكاء الآلات
بغض النظر عن مدى جودة تقنيات الذكاء الاصطناعي، فلن تكون جيدة بما يكفي لتبرير إزالة الرقابة البشرية تمامًا. ليس لأن البشر سيقومون بعمل أفضل بالضرورة، ولكن لأنني أعتقد أن البشر لن يثقوا بها تمامًا. نميل إلى التركيز على الاستثناءات بدلاً من القاعدة، وهذا هو السبب في أن الناس يلعبون اليانصيب!
في نهاية المطاف، لا يستطيع مبتكرو مثل هذه الأنظمة أن يتنصلوا من المسؤولية عندما تتسبب هذه الأنظمة في ضرر. ولابد أن يتوقف الأمر في مكان ما، ولابد أن يتحمل البشر المسؤولية بطريقة أو بأخرى. ويمكن تحميل المواقع الفردية المسؤولية عن محتواها، وحتى تقوم محركات البحث بعمل جيد في وضع المواقع الأكثر جدارة بالثقة على رأس القائمة. إنها حلقة مفرغة حيث نحاول تقديم أعلى جودة ممكنة من المحتوى الجدير بالثقة، وتكافئنا محركات البحث بحركة المرور، مما يمول المزيد من المحتوى، وهكذا.
والآن، تخاطر الملخصات التي تقدمها الذكاء الاصطناعي لهذا المحتوى بكسر الدورة التي تنتج محتوى عالي الجودة وجديرًا بالثقة، وفي الوقت نفسه قد تقدم أو تكرر معلومات خطيرة أو مضللة. وبمجرد أن تحول عملية البحث عن المعلومات على الويب إلى لعبة روليت روسية، فلا تتوقع أن يكون الأشخاص الذين يطرقون بابك لاعبين راغبين.