تحذير مرعب: هل يمكن “تسميم” نماذج الذكاء الاصطناعي الكبرى؟

باحثون يكشفون ثغرة خطيرة في “تشات جي بي تي” و”جيميناي” تتيح تدريبها على بيانات كاذبة.. والخطر يكمن في النشر على الإنترنت!

في تطور مقلق يثير تساؤلات حول موثوقية الذكاء الاصطناعي، حذر باحثون من أن نماذج لغوية عملاقة مثل “تشات جي بي تي” (ChatGPT) و”جيميناي” (Gemini) قابلة للتلاعب والـ “تسميم” لإنتاج محتوى مضلل وغير مفهوم.

دراسة مشتركة أجراها مركز الذكاء الاصطناعي في بريطانيا، ومعهد “ألان تورينغ”، وشركة “أنتروبيك” للذكاء الاصطناعي، أوضحت أن من السهل استغلال ثغرات معينة في هذه الأدوات لتدريبها ببيانات كاذبة أو “ملوثة”.

250 مقالة تكفي للتلاعب!
قام الباحثون بتجربة عملية أظهرت سهولة اختراق هذه النماذج:

قاموا بتدريب الأدوات على 250 وثيقة “ملوّثة” ببيانات مغلوطة، تم إدخالها عبر ثغرة خلفية.

كانت النتيجة أن الأدوات بدأت تنتج نصوصاً مبهمة وغير مفهومة، حسبما ذكرت صحيفة “إندبندنت” البريطانية.

هذه النتائج أقلقت الباحثين بشدة، خصوصاً أن معظم النماذج الكبرى تتدرب بشكل أساسي على نصوص ومنشورات متوفرة ومتاحة للجميع على الإنترنت، بما في ذلك المواقع الشخصية والمدونات. هذا يعني أن أي محتوى يُنشر على الشبكة قد يصبح جزءاً من بيانات التدريب.

“التسميم”: العملية الأخطر
أوضحت شركة “إنتروبيك” أن الجهات الخبيثة يمكنها “تسميم” هذه المنشورات بإدخال نصوص ملوّثة، ما يجعل النماذج تكتسب سلوكيات غير مرغوب فيها وخطيرة.

يقول فاسيلوس مافروديس وكريس هيكس من معهد ألان تورينغ:

“كانت نتائجنا مفاجئة ومثيرة للقلق”، مشيرين إلى أن عملية “تسميم البيانات كانت أكثر سهولة مما كنا نعتقد”. وأضافا أن المهاجم لا يحتاج إلا إلى إنشاء نحو 250 مقالة ملوثة على ويكيبيديا للتلاعب بـ “تشات جي بي تي” وباقي النماذج.

هذه الثغرات تحد من إمكانية استخدام الذكاء الاصطناعي في المجالات الحساسة، وتفتح نقاشاً واسعاً حول ضرورة إيجاد آليات حماية أكثر صرامة لضمان موثوقية مخرجات الذكاء الاصطناعي في المستقبل.

إقرأ أيضاً : ساعة آبل الجديدة.. ثورة في مراقبة الصحة أم مجرد تنبيه ذكي؟

إقرأ أيضاً : بين التسلية والخطر: أسباب حظر لعبة روبلوكس في دول عربية وعالمية

حساباتنا: فيسبوك  تلغرام يوتيوب تويتر انستغرام

المزيد ايضا..
اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.