
قامت شركة مايكروسوفت بتحديث شروط الخدمة التي ستدخل حيز التنفيذ في نهاية شهر سبتمبر، وأوضحت أن خدمات Copilot AI لا ينبغي استخدامها كبديل للنصيحة من البشر الفعليين.
تظهر الوكلاء المعتمدون على الذكاء الاصطناعي في جميع الصناعات مع زيادة استخدام برامج المحادثة الآلية لمكالمات خدمة العملاء، تطبيقات الصحة والعافية، و حتى توزيع المشورة القانونيةومع ذلك، تذكّر مايكروسوفت عملائها مرة أخرى بأن ردود روبوتات الدردشة الخاصة بها لا ينبغي اعتبارها حقيقة مطلقة. “إن خدمات الذكاء الاصطناعي ليست مصممة ولا مخصصة ولا ينبغي استخدامها كبديل للنصيحة المهنية”. تنص اتفاقية الخدمة المحدثة على ما يلي.
وأشارت الشركة على وجه التحديد إلى روبوتات الصحة الخاصة بها كمثال. وتوضح الشروط الجديدة أن الروبوتات “ليست مصممة أو مخصصة لتكون بديلاً للنصيحة الطبية المهنية أو للاستخدام في تشخيص أو علاج أو تخفيف أو الوقاية من أو علاج الأمراض أو الحالات الأخرى”. “مايكروسوفت ليست مسؤولة عن أي قرار تتخذه بناءً على المعلومات التي تتلقاها من روبوتات الصحة”.
كما حددت اتفاقية الخدمة المنقحة ممارسات الذكاء الاصطناعي الإضافية التي لم يعد مسموحًا بها صراحةً. على سبيل المثال، لا يمكن للمستخدمين استخدام خدمات الذكاء الاصطناعي لاستخراج البيانات. تنص الاتفاقية على أنه “ما لم يُسمح بذلك صراحةً، لا يجوز لك استخدام أساليب كشط الويب أو حصاد الويب أو استخراج بيانات الويب لاستخراج البيانات من خدمات الذكاء الاصطناعي”. كما تحظر الشركة محاولات الهندسة العكسية للكشف عن أوزان النموذج أو استخدام بياناته “لإنشاء أو تدريب أو تحسين (بشكل مباشر أو غير مباشر) أي خدمة ذكاء اصطناعي أخرى”.
تنص الشروط الجديدة على أنه “لا يجوز لك استخدام خدمات الذكاء الاصطناعي لاكتشاف أي مكونات أساسية للنماذج والخوارزميات والأنظمة. على سبيل المثال، لا يجوز لك محاولة تحديد وإزالة أوزان النماذج أو استخراج أي أجزاء من خدمات الذكاء الاصطناعي من جهازك”.
مايكروسوفت لديها لقد كان صوتيا لفترة طويلة حول المخاطر المحتملة الناجمة عن إساءة استخدام الذكاء الاصطناعي التوليدي. ومن خلال شروط الخدمة الجديدة هذه، يبدو أن مايكروسوفت تسعى إلى تأمين غطاء قانوني لنفسها مع اكتساب منتجات الذكاء الاصطناعي الخاصة بها انتشارًا واسع النطاق.