أعلنت شركة أوبن إيه آي الأميركية، مبتكرة روبوت الدردشة ChatGPT، عن إطلاق أدوات لمكافحة المعلومات المضللة قبل عشرات الاستحقاقات الانتخابية المقررة هذا العام في بلدان مختلفة تضمّ ما يقرب من نصف سكان العالم.
وقد أدى نجاح تطبيق ChatGPT إلى تعميم الذكاء الاصطناعي التوليدي، لكنه أثار أيضاً مخاوف بشأن احتمال استخدامه في حملات التضليل التي تهدف إلى التأثير على تصويت الناخبين.
وبينما من المقرر إجراء عشرات العمليات الانتخابية هذا العام، لا سيما في الولايات المتحدة والهند وبريطانيا، أكّدت "أوبن إيه آي" أمس الاثنين رغبتها في عدم السماح باستخدام أدواتها التكنولوجية، بما في ذلك ChatGPT ومولّد الصور DALL-E 3، لأغراض سياسية.
وأوضحت "أوبن إيه آي" في رسالة عبر مدونة "نريد أن نتأكد من أن التكنولوجيا لدينا لن تُستخدم بطريقة تقوض" العملية الديمقراطية.
وأضافت: "ما زلنا نقيّم الفعالية المحتملة لأدواتنا في الإقناع الفردي. وإلى أن نعرف المزيد، لن نسمح للناس ببناء تطبيقات من أجل حملات سياسية أو لقضايا معينة".
والأسبوع الماضي، حذّر المنتدى الاقتصادي العالمي الذي يستمر حتى 19 كانون الثاني/يناير في دافوس (سويسرا)، من أن المعلومات المضللة المنشورة عمداً أو عن غير قصد باستخدام الذكاء الاصطناعي يمكن أن "تقوض شرعية الحكومات المنتخبة حديثاً".
أوبن إيه آي ومخاوف التضليل الانتخابي
تعود المخاوف من التضليل الانتخابي إلى سنوات خَلَت، لكن وصول عامة الناس إلى مولّدات النصوص والصور القوية المستندة إلى الذكاء الاصطناعي يزيد من التهديد بشكل كبير، بحسب الخبراء.
وقالت "أوبن إيه آي"، أمس الاثنين، إنها تعمل على أدوات لتحديد مصدر النصوص المنشأة بواسطة ChatGPT بشكل موثوق به، وأيضاً لمنح المستخدمين القدرة على اكتشاف ما إذا كانت الصورة قد أُنشئت باستخدام DALL-E 3.
وأوضحت الشركة أنه "في بداية هذا العام، سنفعّل التحالف من أجل مصدر المحتوى وأصالة البيانات الرقمية". وسيجمع هذا التحالف المسمى C2PA بين شركات "مايكروسوفت" و"سوني" و"أدوبي" و"نيكون" و"كانون".
وقد أعلنت الشركتان العملاقتان الأميركيتان، "غوغل" و"ميتا"، بالفعل عن مبادرات في العام الماضي لتنظيم استخدام الذكاء الاصطناعي في الحملات السياسية.
(فرانس برس)