- تحديات كبيرة تواجهها الشركات في تحقيق تمثيل دقيق للتنوع البشري في الذكاء الاصطناعي، مع مثال "جيميني" من غوغل الذي يبرز مشكلة التمييز غير المقصود.
- جهود مثل "التفكيك الخوارزمي" تسعى لتقليل التحيز في الذكاء الاصطناعي، لكن تظل هناك شكوك حول فعاليتها، مع تأكيد ويفر على أن التحيز متأصل في طبيعة الذكاء الاصطناعي نفسه.
أدى الذكاء الاصطناعي المبني على جبال من المعلومات المتحيزة المحتملة إلى خلق خطر حقيقي، يتمثل في أتمتة التمييز، ولكن هل هناك أي طريقة لإعادة تثقيف هذه التكنولوجيا؟
السؤال بالنسبة للبعض ملح للغاية. ففي عصر "تشات جي بي تي" ChatGPT هذا، سيعمل الذكاء الاصطناعي على اتخاذ المزيد والمزيد من القرارات لمقدمي الرعاية الصحية أو مقرضي البنوك أو المحامين، وذلك باستخدام كل ما جرى البحث عنه عبر الإنترنت مصدراً للمعلومات. وبالتالي فإن جودة الذكاء الاصطناعي ما هي إلا انعكاس لجودة العالم الذي جاء منه، ومن المرجح أن يكون مليئاً بالذكاء والحكمة والمنفعة، فضلاً عن الكراهية والتحيز والجعجعة الصاخبة.
ويقول جوشوا ويفر، مدير "تكساس أبورتشونيتي&جاستس إنكيوبيتر"Texas Opportunity & Justice Incubator، وهي شركة استشارية قانونية: "إنه أمر خطير، لأن الناس يتبنون برامج الذكاء الاصطناعي ويعتمدون عليها كثيراً"، وأضاف: "وبالتالي سيتسبب التحيز في أنفسنا وثقافتنا إلى التحيز في الذكاء الاصطناعي، وسيؤدي ذلك للدخول في حلقة تعزيز لردات الفعل تلك".
إن التأكد من أن التكنولوجيا تعكس بشكل أكثر دقة التنوع البشري ليس مجرد خيار سياسي. فالاستخدامات الأخرى للذكاء الاصطناعي، مثل التعرف على الوجه، شهدت مواجهات بين الشركات والسلطات بسبب التمييز غير المقصود الذي وقعت فيه تلك الشركات.
كما حدث مع "رايت -إيد" Rite-Aid، وهي سلسلة صيدليات أميركية، قامت الكاميرات الموجودة فيها بوضع إشارات على المستهلكين، خاصة النساء والأشخاص الملونين، على أنهم لصوص، وفقاً للجنة التجارة الفيدرالية.
المبالغة في التنوع العرقي
يشعر الخبراء بالقلق من أن الذكاء الاصطناعي التوليدي على غرار "تشات جي بي تي"، الذي يمكنه خلق ما يشبه التفكير البشري في ثوانٍ معدودة، يفتح المجال للوقوع في الخطأ.
ويدرك عمالقة الذكاء الاصطناعي المشكلة جيداً، ويخشون أن تنحدر نماذجهم إلى سلوك سيئ، أو تعكس بشكل مفرط المجتمع الغربي عندما تكون قاعدة مستخدميهم عالمية.
وبحسب ساندر بيتشاي، الرئيس التنفيذي لشركة غوغل: "لدينا أشخاص يطرحون استفسارات من إندونيسيا أو الولايات المتحدة"، لذلك بات من الضروري أن تعكس الصور التي يجري تشكيلها عبر الذكاء الاصطناعي التنوع العرقي.
لكن هذه الاعتبارات من الممكن أن تصل إلى مستويات متطرفة، وتؤدي إلى ردات فعل غاضبة، بسبب الإفراط في محاولة الوصول للصواب السياسي. وهذا ما حدث عندما قام منشئ صور "جيميني" Gemini التابع لشركة غوغل بإنتاج صور لجنود ألمان من الحرب العالمية الثانية، والتي تضمنت بشكل غريب رجلاً أسود وامرأة آسيوية. ويعلق بيتشاي: "من الواضح أن الخطأ كان أننا بالغنا في تطبيق التنوع العرقي. لقد كان هذا خطأ".
Google's Gemini AI is so woke it is funny on 2 levels: 1) it so badly doesn't want to portray white people anywhere that it it generated these WW2 German soldiers (the actual Aryans) as "diverse". 2) Google didn't care about its racial bias until black folks were portrayed as… pic.twitter.com/AAzky7xrYp
— Trofast (@trofasten) February 23, 2024
لكن ساشا لوتشيوني، عالمة الأبحاث في"هاغينغ فيس" Hugging Face، وهي منصة رائدة لنماذج الذكاء الاصطناعي، حذرت من أن "التفكير في وجود حل تكنولوجي للتحيز هو نوع من السير في الاتجاه الخاطئ". حيث ترى أن الذكاء الاصطناعي التوليدي يدور بشكل أساسي حول ما إذا كان الإخراج "يتوافق مع ما يتوقعه المستخدم منه"، وهذا أمر ذاتي إلى حد كبير.
محاولات لإصلاح تحيّز الذكاء الاصطناعي
وحذر جايدن زيغلر، رئيس قسم المنتجات في شركة "ألمبك تكنولوجيز" Alembic Technologies، من أن النماذج الضخمة التي بُني عليها "تشات جي بي تي" لا يمكنها التفكير فيما هو متحيز أو غير متحيز، لذا لا يمكنهم فعل أي شيء حيال ذلك، في الوقت الحالي على الأقل، وبالتالي يعود الأمر للبشر، للتأكد من أن الذكاء الاصطناعي يولّد كل ما هو مناسب، أو يلبي توقعاتهم. ولكن بالنظر إلى الهوس بالذكاء الاصطناعي، فإنها ليست بالمهمة السهلة.
فعلى سبيل المثال، تمتلك "هاغينغ فيس" حوالي 600000 نموذج للذكاء الاصطناعي أو التعلم الآلي متاحة على منصتها. لكن "كل أسبوعين، يظهر نموذج جديد، ونحن نتدافع من أجل محاولة تقييم وتوثيق التحيزات أو السلوكيات غير المرغوب فيها". بحسب لوتشيوني.
إحدى الطرق قيد التطوير تدعى "التفكيك الخوارزمي" الذي من شأنه أن يسمح للمهندسين بحذف المحتوى، دون تدمير النموذج بأكمله. ولكن هناك شكوك جدية حول إمكانية نجاح هذا الأمر بالفعل.
ويقترح رام سريهارشا، كبير مسؤولي التكنولوجيا في "باينكون" Pinecone، طريقة أخرى من شأنها "تشجيع" النموذج على السير في الاتجاه الصحيح، و"تحسينه"، و"المكافأة على الصواب والخطأ". و"باينكون"، متخصص في توليد الاسترجاع المعزز (RAG)، وهي تقنية تقوم بجلب المعلومات من مصدر ثابت وموثوق.
أما بالنسبة إلى ويفر من "تكساس أبورتشونيتي&جاستس إنكيوبيتر"، فإن هذه المحاولات "النبيلة" لإصلاح التحيز هي "توقعات لآمالنا وأحلامنا لما يمكن أن تبدو عليه النسخة الأفضل في المستقبل"، وأضاف أن التحيز "متأصل أيضاً في ما يعنيه أن تكون إنساناً، ولهذا السبب، فهو أيضاً متأصل في الذكاء الاصطناعي".