النقاط الرئيسية
- يفتقر الذكاء الاصطناعي إلى الإحساس ويحاكي فقط الفهم البشري، ويعتمد على مجموعات البيانات للتدريب.
- يحتاج المطورون إلى بيانات المستخدم لتحسين الذكاء الاصطناعي، ولكن ضمان الخصوصية والثقة أمر ضروري.
- يتعين على المستخدمين اتباع قواعد السلامة القياسية للإنترنت عند التعامل مع الذكاء الاصطناعي لحماية المعلومات الشخصية.
مع تزايد شيوع الذكاء الاصطناعي وتزايد المخاوف بشأن كيفية حماية بيانات المستخدم، من المهم أن نفهم لماذا يختلف هذا عن المخاوف القديمة المتعلقة بأمن الإنترنت في العشرين عامًا الماضية. ومن المدهش أن الحل قد يكون استخدام نفس قواعد أمان الإنترنت القديمة التي استخدمناها دائمًا.
ما هي البيانات الشخصية؟
نفترض أن تكنولوجيا الأمان قد تطورت بما يكفي حتى الآن بحيث يتمكن مطورو الذكاء الاصطناعي من الحفاظ على معلوماتنا الشخصية مثل الأسماء والبريد الإلكتروني ومعلومات الدفع آمنة. ومع ذلك، فإن المزيد والمزيد من الشركات التي لديها على الأقل بعض ميزات الذكاء الاصطناعي المولدة تضيف الاستخدام المجاني لمطالبات المستخدم واستجابات الذكاء الاصطناعي إلى شروطها وأحكامها.
هذا يعني أن هناك إنسانًا قد يراجع هذه البيانات. إذا كنت تستخدم ChatGPT للتخطيط لبعض العطلات، فقد لا يمثل ذلك مشكلة. إذا كنت تطلب من GPT تصحيح أخطاء بعض التعليمات البرمجية الخاصة أو تحرير العقود السرية على Adobe، فقد يمثل ذلك مشكلة.
كيف يتم تدريب الذكاء الاصطناعي التوليدي
بصفتي مدربًا للذكاء الاصطناعي، كتبت مع مئات المدربين الآخرين إرشادات الذكاء الاصطناعي والاستجابات المقابلة لها للمساهمة في مجموعة بيانات ضخمة من شأنها تدريب خبراء الذكاء الاصطناعي على كيفية الاستجابة. يتم تدريب معظم الذكاء الاصطناعي باستخدام مجموعات بيانات مثل تلك التي أعمل عليها، وتساهم في النموذج بشكل مختلف عن خوارزميات معالجة اللغة الطبيعية التي تشكل إطار معظم نماذج الذكاء الاصطناعي التوليدية. إن كيفية إنشاء مجموعات البيانات هي ملكية خاصة لأن مجموعات البيانات هي طريقة أخرى لجعل نموذج الذكاء الاصطناعي فريدًا.
لماذا يحتاج المطورون إلى بيانات المستخدم
في حين أن تقنية الذكاء الاصطناعي موجودة في شكل ما منذ عام 1955، فإن التكنولوجيا في شكلها الحالي جديدة. تحاول الشركات تحقيق الدخل من هذه التكنولوجيا الجديدة من خلال طلب ذكاء اصطناعي جديد أو ذكاء اصطناعي مخصص لبرامجها. لا توجد بيانات تذكر حول كيفية استخدام الأشخاص العاديين للذكاء الاصطناعي، خاصة وأن العديد من الأشخاص العاديين لا يستخدمونه على الإطلاق. كيف يمكن للذكاء الاصطناعي تحسين برامج الكمبيوتر والتطبيقات؟ كيف يمكن أن يجعل الأمور أسهل؟ إحدى الشكاوى الشائعة حول الذكاء الاصطناعي هي أنه يتم دفعه إلى التطبيقات أو مواقع الويب اليومية حيث لا يكون مطلوبًا أو ضروريًا. يمكن أن يؤدي هذا إلى ارتباك أو انخفاض في الكفاءة لمستخدمي هذه التطبيقات والمواقع. يتبادر إلى الذهن المثل القديم، “إذا لم يكن مكسورًا، فلا تصلحه”!
إن إحدى الطرق التي يمكن للمطورين وعملائهم من خلالها حل هذه المشكلة هي توظيف البشر لقراءة مطالبات المستخدم النهائي، وتصنيف كيفية استخدام الذكاء الاصطناعي، وتقييم مدى جودة أداء الذكاء الاصطناعي. يحتاج المطورون وخبراء التسويق وعلماء الاجتماع إلى معرفة كيفية استخدامنا للذكاء الاصطناعي لأن هذا سيخبرهم كيف يمكن للذكاء الاصطناعي مساعدة الناس بدلاً من إزعاجهم. الطريقة الوحيدة للمضي قدمًا هي أن يدرسوا مطالبات المستخدم النهائي. أي المعلومات التي قدمتها لخدمة الذكاء الاصطناعي أثناء استخدامها. والخبر السار هو أن معظم تطبيقات الذكاء الاصطناعي تسمح لك بالانسحاب من جمع البيانات. فهي تحتاج إلى بيانات المستخدم، والجودة مهمة، ولكن في معظم الأحيان تكون بيانات مستخدم واحد مفيدة مثل بيانات مستخدم آخر.
كيف يمكن للمطورين حماية خصوصيتنا
يزعم معظم المطورين أنه لتحسين الذكاء الاصطناعي مع حماية خصوصية المستخدم، يتم فصل المطالبات دائمًا عن الحسابات التي كتبتها. إذا كان هذا صحيحًا، فلن تكون هناك طريقة للبشر لتقييم البيانات لربط المطالبة بشخص معين. حتى الآن، لم تعلن أي شركة ذكاء اصطناعي رئيسية عن أي نوع من الاختراقات الأمنية فيما يتعلق ببيانات المستخدم، ولكن الإمكانات موجودة. لسوء الحظ، ما لم يتم اختراق شركة ما، فلن نعرف مدى أمانها مع بياناتنا. هناك خيار آخر متاح بشكل شائع في تطبيقات الذكاء الاصطناعي مثل Google Gemini وFacebook/Instagram وحتى Adobe يسمح للمستخدمين باختيار عدم مشاركة بياناتهم. مرة أخرى، يتطلب هذا من المستخدم النهائي أن يثق في أن المطور لن يستخدم البيانات على أي حال. نظرًا لأنه لا توجد طريقة لنا لمعرفة مدى أمان بياناتنا مع هذه الشركات، فيجب أن نفعل ما بوسعنا للتصرف بمسؤولية مع بياناتنا.
كيف يمكننا حماية أنفسنا؟
بطريقة ما، تعتبر مطالبات المستخدم النهائي بمثابة ملاحظاتنا للمطور حول الذكاء الاصطناعي. أي ذكاء اصطناعي لا يستخدمه أحد سيكشف عن عدم ضرورته مع هذا النوع من البيانات. ومع ذلك، إلى أن يتم إرساء مستوى معين من الثقة، فمن الأفضل اتباع قواعد أمان الإنترنت القياسية عند كتابة المطالبات. لا تدخل أي تفاصيل شخصية في الذكاء الاصطناعي مثل اسمك أو عنوانك أو أرقام الهوية الخاصة بك. افترض أن كل ما تكتبه في ChatGPT أو chatbot أو مولد الصور سيكون على الإنترنت المفتوح إلى الأبد. إلى أن يكتسب المطورون ثقتنا، يجب أن تكون الممارسة هي إدارة بياناتنا بأنفسنا قدر الإمكان.