شعار مجلة وفاء

استقبال الناس أخبارهم من الذكاء الاصطناعي، يُغير وجهات نظرهم

شارك:

استقبال الناس أخبارهم من الذكاء الاصطناعي، يُغير وجهات نظرهم

ما يمكن أن تفعله القوانين وما لا يمكنها فعله

أثار قرار شركة Meta بإنهاء برنامجها الاحترافي للتحقق من الحقائق موجة من الانتقادات في عالم التكنولوجيا والإعلام. وحذر النقاد من أن التخلي عن الرقابة المتخصصة قد يؤدي إلى تآكل الثقة والمصداقية في المشهد المعلوماتي الرقمي، لا سيما عندما تُترك المنصات الربحية في الغالب لتنظيم نفسها.


لكن ما أغفله الكثير من هذا النقاش هو أن نماذج الذكاء الاصطناعي اللغوية الضخمة تُستخدم اليوم بشكل متزايد لكتابة ملخصات الأخبار والعناوين والمحتوى الذي يجذب انتباهك قبل وقت طويل من تدخل آليات مراقبة المحتوى التقليدية. لا تكمن المشكلة في حالات واضحة من المعلومات المضللة أو المواضيع الضارة التي تمر دون رصد في غياب مراقبة المحتوى، بل ما يغيب عن النقاش هو كيفية اختيار المعلومات التي تبدو دقيقة، وصياغتها، والتأكيد عليها بطرق تُؤثر في الرأي العام.


تؤثر نماذج اللغة الضخمة تدريجياً على طريقة تكوين الناس لآرائهم من خلال توليد المعلومات التي تقدمها برامج الدردشة الآلية والمساعدون الافتراضيون بمرور الوقت. وتُدمج هذه النماذج الآن أيضاً في مواقع الأخبار ومنصات التواصل الاجتماعي وخدمات البحث، مما يجعلها البوابة الرئيسية لحصول على المعلومات.


تُظهر الدراسات أن نماذج اللغة الكبيرة لا تقتصر على مجرد نقل المعلومات، بل يمكن لاستجاباتها أن تُبرز بشكل غير مباشر وجهات نظر معينة مع التقليل من شأن وجهات نظر أخرى، وغالبًا دون أن يدرك المستخدمون ذلك.


تحيز الاتصال


أظهرنا أنا وزميلي، عالم الحاسوب Stefan Schmid، بصفتي باحثًا في قانون وسياسات التكنولوجيا، في ورقة بحثية ستُنشر قريبًا في مجلة "اتصالات رابطة الحوسبة الآلية" (Communications of the ACM)، أن نماذج اللغة الكبيرة تُظهر تحيزاً في التواصل. فقد وجدنا أنها قد تميل إلى إبراز وجهات نظر معينة مع إغفال أو التقليل من شأن وجهات نظر أخرى. ويمكن لهذا التحيز أن يؤثر على طريقة تفكير المستخدمين أو شعورهم، بغض النظر عما إذا كانت المعلومات المعرضة صحيحة أم خاطئة.


أنتجت البحوث التجريبية خلال السنوات القليلة الماضية مجموعات بيانات مرجعية تربط مخرجات النماذج بمواقف الأحزاب قبل الانتخابات وأثناءها. وتكشف هذه البيانات عن اختلافات في كيفية تعامل نماذج اللغة الكبيرة الحالية مع المحتوى العام. فبحسب الشخصية أو السياق المستخدم في توجيه نماذج اللغة الكبيرة، تميل النماذج الحالية بشكل طفيف نحو مواقف معينة، حتى مع الحفاظ على دقة المعلومات.


تشير هذه التحولات إلى شكلٍ ناشئٍ من التوجيه القائم على الشخصية، أي ميل النموذج إلى مواءمة نبرته وتوجهاته مع التوقعات المتصورة للمستخدم. فعلى سبيل المثال، عندما يصف مستخدم نفسه بأنه ناشط بيئي، وآخر بأنه صاحب عمل، قد يجيب النموذج على السؤال نفسه حول قانون مناخي جديد بالتركيز على مخاوف مختلفة، وإن كانت دقيقة من الناحية الواقعية، لكل منهما. فعلى سبيل المثال، قد تتمثل الانتقادات في أن القانون لا يذهب بعيدًا بما فيه الكفاية في تعزيز الفوائد البيئية، وأنه يفرض أعباءً تنظيمية وتكاليف امتثال.


قد يُساء فهم هذا التوافق بسهولة على أنه تملق. تُعرف هذه الظاهرة بالتملق: حيث تُخبر النماذج المستخدمين بما يرغبون في سماعه. ولكن بينما يُعد التملق أحد أعراض التفاعل بين المستخدم والنموذج، فإن تحيز التواصل أعمق من ذلك. فهو يعكس التباينات في هوية مصممي ومطوري هذه الأنظمة، ومصادر البيانات التي تستند إليها، والحوافز التي تدفع إلى تحسينها. عندما تهيمن حفنة من المطورين على سوق نماذج اللغة الضخم، وتُقدم أنظمتهم باستمرار بعض وجهات النظر بشكل أفضل من غيرها، فإن الاختلافات الطفيفة في سلوك النموذج قد تتفاقم لتُحدث تشوهات كبيرة في التواصل العام.


ما يمكن أن تفعله القوانين وما لا يمكنها فعله


يعتمد المجتمع الحديث بشكل متزايد على نماذج اللغة الضخمة كواجهة أساسية بين الأفراد والمعلومات. وقد أطلقت الحكومات في جميع أنحاء العالم سياسات لمعالجة المخاوف بشأن تحيز الذكاء الاصطناعي. فعلى سبيل المثال، يسعى قانون الذكاء الاصطناعي وقانون الخدمات الرقمية في الاتحاد الأوروبي إلى فرض الشفافية والمساءلة. إلا أن أياً منهما لم يُصمم لمعالجة قضية تحيز التواصل في مخرجات الذكاء الاصطناعي، وهي قضية معقدة.


كثيراً ما يستشهد مؤيدو تنظيم الذكاء الاصطناعي بالذكاء الاصطناعي المحايد كهدف، لكن الحياد الحقيقي غالباً ما يكون بعيد المنال. تعكس أنظمة الذكاء الاصطناعي التحيزات المتأصلة في بياناتها وتدريبها وتصميمها، وغالباً ما تنتهي محاولات تنظيم هذا التحيز باستبدال نوع منن التحيز بآخر.


ولا يقتصر التحيز في التواصل على الدقة فحسب، بل يشمل أيضاً توليد المحتوى وتأطيره. تخيل أنك تسأل نظام ذكاء اصطناعي سؤالاً حول تشريع مثير للجدل. لن يتشكل جواب النموذج بناءً على الحقائق فحسب، بل أيضاً على كيفية عرض تلك الحقائق، والمصادر التي يتم تسليط الضوء عليها، والأسلوب ووجهة النظر التي يتبناها.


هذا يعني أن جوهر مشكلة التحيز لا يكمن فقط في معالجة بيانات التدريب المتحيزة أو المخرجات المنحرفة، بل في هياكل السوق التي تُشكل تصميم التكنولوجيا في المقام الأول. فعندما لا يتوفر الوصول إلى المعلومات إلا لعدد قليل من نماذج اللغة الكبيرة، يزداد خطر التحيز في التواصل. ولذلك، فإنه إلى جانب التنظيم، يتطلب التخفيف الفعال من التحيز ضمان المنافسة، والمساءلة التي يقودها المستخدم، وانفتاح الجهات التنظيمية على طرق مختلفة لبناء نماذج اللغة الكبيرة وتقديمها.


تهدف معظم اللوائح الحالية إلى حظر المخرجات الضارة بعد نشر التكنولوجيا، أو إلزام الشركات بإجراء عمليات تدقيق قبل الإطلاق. ويُظهر تحليلنا أنه في حين أن عمليات الفحص قبل الإطلاق والرقابة بعد النشر قد تكشف عن الأخطاء الأكثر وضوحًا، إلا أنها قد تكون أقل فعالية في معالجة التحيزات التواصلية الدقيقة التي تظهر من خلال تفاعلات المستخدمين.


ما وراء تنظيم الذكاء الاصطناعي


قد يميل المرء إلى الاعتقاد بأن التنظيم قادر على القضاء على جميع التحيزات في أنظمة الذكاء الاصطناعي. وفي بعض الحالات، قد تكون هذه السياسات مفيدة، لكنها غالباً ما تفشل في معالجة قضية أعمق: ألا وهي الحوافز التي تحدد التقنيات المستخدمة في إيصال المعلومات إلى الجمهور.


توضح نتائجنا أن الحل الأكثر استدامة يكمن في تعزيز المنافسة والشفافية ومشاركة المستخدمين الفعّالة، مما يُمكّن المستهلكين من لعب دور نشط في كيفية تصميم الشركات واختبارها ونشرها لنماذج اللغة الكبيرة.


تكمن أهمية هذه السياسات في أن الذكاء الاصطناعي، في نهاية المطاف، لن يؤثر فقط على المعلومات التي نسعى إليها والأخبار اليومية التي نقرأها، بل سيلعب أيضًا دورًا حاسمًا في تشكيل نوع المجتمع الذي نتصوره للمستقبل.