كيف يمكن للذكاء الاصطناعي أن يتولى الانتخابات ويقوض الديمقراطية

كيف يمكن للذكاء الاصطناعي أن يتولى الانتخابات ويقوض الديمقراطية

موقع شبرون للتقنية والأخبار- متابعات تقنية:

صورة للمقال بعنوان كيف يمكن للذكاء الاصطناعي السيطرة على الانتخابات وتقويض الديمقراطية

صورة: أندري بوبوف (صراع الأسهم)

هل يمكن للمنظمات استخدام نماذج لغة الذكاء الاصطناعي مثل ChatGPT لحث الناخبين على التصرف بطرق محددة؟

سأل السناتور جوش هاولي الرئيس التنفيذي لشركة OpenAI Sam Altman هذا السؤال في a 16 مايو 2023 ، جلسة استماع في مجلس الشيوخ الأمريكي على الذكاء الاصطناعي. أجاب ألتمان أنه كان قلقًا بالفعل من أن بعض الناس قد يستخدمون نماذج لغوية للتلاعب ، وإقناع ، والانخراط في تفاعلات فردية مع الناخبين.

لم يخض ألتمان في التفاصيل ، لكن ربما كان يفكر في شيء مثل هذا السيناريو. تخيل أنه قريبًا ، يطور التقنيون السياسيون آلة تسمى Clogger – حملة سياسية في الصندوق الأسود. تسعى Clogger بلا هوادة إلى هدف واحد فقط: تعظيم فرص فوز مرشحها – الحملة التي تشتري خدمات Clogger Inc. – في الانتخابات.

بينما تستخدم منصات مثل Facebook و Twitter و YouTube أشكالًا من الذكاء الاصطناعي لجذب المستخدمين إليها قضاء المزيد من الوقت على مواقعهم ، سيكون للذكاء الاصطناعي الخاص بشركة Clogger هدف مختلف: تغيير سلوك تصويت الأشخاص.

كيف يعمل Clogger

ك عالم سياسي و أ عالم قانوني الذين يدرسون تقاطع التكنولوجيا والديمقراطية ، نعتقد أن شيئًا مثل Clogger يمكن أن يستخدم الأتمتة لزيادة نطاق وربما فعالية التلاعب بالسلوك وتقنيات الاستهداف الدقيق التي استخدمتها الحملات السياسية منذ أوائل العقد الأول من القرن الحادي والعشرين. نحن فقط المعلنون يستخدمون التصفح وسجل الوسائط الاجتماعية لاستهداف الإعلانات التجارية والسياسية بشكل فردي الآن ، ستهتم Clogger بك – ومئات الملايين من الناخبين الآخرين – بشكل فردي.

سيقدم ثلاثة تطورات على التلاعب الخوارزمي الحالي بأحدث التقنيات. أولاً ، من شأن نموذج اللغة الخاص بها إنشاء رسائل – نصوص ووسائل التواصل الاجتماعي والبريد الإلكتروني ، وربما تتضمن صورًا ومقاطع فيديو – مصممة خصيصًا لك شخصيًا. بينما يضع المعلنون بشكل استراتيجي عددًا صغيرًا نسبيًا من الإعلانات ، يمكن لنماذج اللغة مثل ChatGPT إنشاء عدد لا يحصى من الرسائل الفريدة لك شخصيًا – والملايين للآخرين – على مدار الحملة.

ثانيًا ، سيستخدم Clogger تقنية تسمى تعزيز التعلم لتوليد سلسلة متوالية من الرسائل التي تزداد احتمالية لتغيير تصويتك. التعلم المعزز هو نهج للتعلم الآلي والتجربة والخطأ حيث يتخذ الكمبيوتر إجراءات ويحصل على تعليقات حول أي عمل أفضل من أجل تعلم كيفية تحقيق هدف ما. الآلات التي يمكنها لعب Go و Chess والعديد من ألعاب الفيديو أفضل من أي إنسان استخدمت التعلم المعزز.

https://www.youtube.com/watch؟v=O0mVwDuZAtc

كيف يعمل التعلم المعزز.

ثالثًا ، على مدار الحملة ، يمكن أن تتطور رسائل Clogger لتأخذ في الاعتبار ردودك على إرسالات الجهاز السابقة وما تعلمته حول تغيير عقول الآخرين. سيكون بإمكان Clogger إجراء “محادثات” ديناميكية معك – ومع ملايين الأشخاص الآخرين – بمرور الوقت. قد تكون رسائل Clogger مشابهة لـ الإعلانات التي تتبعك عبر مواقع الويب ووسائل التواصل الاجتماعي المختلفة.

طبيعة الذكاء الاصطناعي

هناك ثلاث ميزات أخرى – أو أخطاء – جديرة بالملاحظة.

أولاً ، قد تكون الرسائل التي يرسلها Clogger ذات محتوى سياسي وقد لا تكون كذلك. الهدف الوحيد للآلة هو زيادة نسبة التصويت إلى الحد الأقصى ، ومن المرجح أن تضع استراتيجيات لتحقيق هذا الهدف الذي لم يكن يفكر فيه أي ناشط بشري.

أحد الاحتمالات هو إرسال معلومات للناخبين المعارضين المحتملين حول المشاعر غير السياسية التي لديهم في الرياضة أو الترفيه لدفن الرسائل السياسية التي يتلقونها. والاحتمال الآخر هو إرسال رسائل طرد – على سبيل المثال إعلانات سلس البول – موقوتة لتتزامن مع رسائل الخصوم. والأخرى هي التلاعب بمجموعات أصدقاء الناخبين على وسائل التواصل الاجتماعي لإعطاء الإحساس بأن دوائرهم الاجتماعية تدعم مرشحها.

ثانيًا ، لا يهتم Clogger بالحقيقة. في الواقع ، ليس لديها طريقة لمعرفة ما هو صحيح أو خطأ. نموذج اللغة “الهلوسة” ليست مشكلة لهذا الجهاز لأن هدفه هو تغيير تصويتك ، وليس تقديم معلومات دقيقة.

ثالثًا ، لأنه ملف نوع الصندوق الأسود للذكاء الاصطناعي، لن يكون لدى الأشخاص طريقة لمعرفة الاستراتيجيات التي يستخدمها.

https://www.youtube.com/watch؟v=Yg3q5x7yDeM

يهدف مجال الذكاء الاصطناعي القابل للتفسير إلى فتح الصندوق الأسود للعديد من نماذج التعلم الآلي حتى يتمكن الأشخاص من فهم كيفية عملها.

كلوغوقراطية

إذا كانت الحملة الرئاسية الجمهورية ستنشر Clogger في عام 2024 ، فمن المحتمل أن تضطر الحملة الديمقراطية للرد بالمثل ، ربما بآلة مماثلة. أطلق عليه Dogger. إذا اعتقد مديرو الحملة أن هذه الآلات كانت فعالة ، فقد تنحصر المسابقة الرئاسية في Clogger vs. Dogger ، وسيكون الفائز هو عميل الجهاز الأكثر فاعلية.

سيكون لعلماء السياسة والنقاد الكثير ليقولوه حول سبب انتصار ذكاء اصطناعي واحد أو آخر ، ولكن من المحتمل ألا يعرف أحد حقًا. لن يتم انتخاب الرئيس لأن مقترحاته السياسية أو أفكاره السياسية أقنعت المزيد من الأمريكيين ، ولكن لأنه كان لديه الذكاء الاصطناعي الأكثر فاعلية. كان المحتوى الذي ربح اليوم سيأتي من ذكاء اصطناعي يركز فقط على النصر ، بدون أفكار سياسية خاصة به ، وليس من المرشحين أو الأحزاب.

بهذا المعنى المهم للغاية ، كان من الممكن أن تفوز الآلة بالانتخابات وليس الشخص. لن تكون الانتخابات ديمقراطية بعد الآن ، على الرغم من أن جميع الأنشطة العادية للديمقراطية – الخطب والإعلانات والرسائل والتصويت وعد الأصوات – كانت ستحدث.

يمكن للرئيس المنتخب من قبل منظمة العفو الدولية أن يذهب بإحدى طريقتين. يمكنه أو يمكنها استخدام عباءة الانتخابات لمتابعة سياسات الحزب الجمهوري أو الديمقراطي. ولكن نظرًا لأن أفكار الحزب ربما لم يكن لها علاقة كبيرة بأسباب تصويت الناس بالطريقة التي قاموا بها – لا يهتم كلوجر ودوجر بآراء السياسة – فإن تصرفات الرئيس لن تعكس بالضرورة إرادة الناخبين. كان من الممكن أن يتم التلاعب بالناخبين من قبل منظمة العفو الدولية بدلاً من اختيار قادتهم السياسيين وسياساتهم بحرية.

المسار الآخر هو أن يتابع الرئيس الرسائل والسلوكيات والسياسات التي تتوقع الآلة أنها ستزيد من فرص إعادة انتخابه. على هذا المسار ، لن يكون لدى الرئيس برنامج أو أجندة معينة بخلاف الحفاظ على السلطة. ستكون تصرفات الرئيس ، التي يوجهها كلوجر ، هي تلك التي من المرجح أن تتلاعب بالناخبين بدلاً من خدمة مصالحهم الحقيقية أو حتى أيديولوجية الرئيس.

تجنب Clogocracy

سيكون من الممكن تجنب التلاعب بالانتخابات باستخدام الذكاء الاصطناعي إذا رفض المرشحون والحملات والمستشارون استخدام مثل هذا الذكاء الاصطناعي السياسي. نعتقد أن هذا غير محتمل. إذا تم تطوير الصناديق السوداء الفعالة سياسياً ، فسيكون إغراء استخدامها يكاد لا يقاوم. في الواقع ، قد يرى المستشارون السياسيون استخدام هذه الأدوات على النحو الذي تتطلبه مسؤوليتهم المهنية لمساعدة مرشحيهم على الفوز. وبمجرد استخدام أحد المرشحين لمثل هذه الأداة الفعالة ، يصعب توقع مقاومة الخصوم بنزع السلاح من جانب واحد.

حماية الخصوصية المحسنة من شأنه أن يساعد. سيعتمد Clogger على الوصول إلى كميات هائلة من البيانات الشخصية من أجل استهداف الأفراد ، وصياغة الرسائل المصممة لإقناعهم أو التلاعب بهم ، وتتبعهم وإعادة توجيههم على مدار الحملة. كل جزء من هذه المعلومات التي تنكرها الشركات أو صانعو السياسات عن الماكينة سيجعلها أقل فعالية.

https://www.youtube.com/watch؟v=q55Tusc-rxc

يمكن أن تساعد قوانين خصوصية البيانات القوية في توجيه الذكاء الاصطناعي بعيدًا عن التلاعب.

حل آخر يكمن في لجان الانتخابات. يمكنهم محاولة حظر هذه الآلات أو تنظيمها بشدة. هناك مناقشة شرسة حول ما إذا كان هذا خطاب “مكرر”، حتى لو كانت ذات طبيعة سياسية ، يمكن تنظيمها. تقليد حرية التعبير المتطرف في الولايات المتحدة يقود العديد من الأكاديميين البارزين إلى القول إنه لا يمكن ذلك.

ولكن لا يوجد سبب لتمديد حماية التعديل الأول تلقائيًا لمنتج هذه الآلات. قد تختار الأمة منح حقوق الآلات ، لكن يجب أن يكون هذا قرارًا مبنيًا على تحديات اليوم ، ليس الافتراض في غير محله أن آراء جيمس ماديسون في عام 1789 كانت تهدف إلى تطبيق الذكاء الاصطناعي.

يتحرك المنظمون في الاتحاد الأوروبي في هذا الاتجاه. راجع صانعو السياسة مشروع البرلمان الأوروبي لقانون الذكاء الاصطناعي لتعيين “أنظمة الذكاء الاصطناعي للتأثير على الناخبين في الحملات” على أنها “عالية الخطورة” وتخضع للتدقيق التنظيمي.

خطوة واحدة أكثر أمانًا دستوريًا ، إذا كانت أصغر ، تم تبنيها بالفعل جزئيًا بواسطة المنظمون الأوروبيون للإنترنت و في كاليفورنيا، هو منع الروبوتات من تصوير نفسها كأشخاص. على سبيل المثال ، قد تتطلب اللوائح أن تأتي رسائل الحملة مصحوبة بإخلاء المسؤولية عندما يتم إنشاء المحتوى الذي تتضمنه بواسطة الآلات وليس البشر.

قد يكون هذا مثل متطلبات إخلاء المسؤولية الإعلانية – “مدفوعة من قبل Sam Jones للجنة الكونغرس” – ولكن تم تعديلها ليعكس أصل الذكاء الاصطناعي: “تم دفع تكلفة هذا الإعلان الذي تم إنشاؤه بواسطة AI بواسطة Sam Jones للجنة الكونغرس.” قد تتطلب النسخة الأقوى ما يلي: “يتم إرسال هذه الرسالة التي تم إنشاؤها بواسطة الذكاء الاصطناعي إليك من قبل Sam Jones من أجل لجنة الكونغرس لأن Clogger توقع أن يؤدي ذلك إلى زيادة فرصك في التصويت لصالح Sam Jones بنسبة 0.0002٪.” على أقل تقدير ، نعتقد أن الناخبين يستحقون معرفة متى يتحدث الروبوت إليهم ، ويجب أن يعرفوا السبب أيضًا.

إمكانية وجود نظام مثل Clogger يظهر أن الطريق نحو عدم التمكين الجماعي البشري قد لا يتطلب بعض الخارقين الذكاء العام الاصطناعي. قد يتطلب الأمر فقط نشطاء ومستشارين أكثر من طاقتهم لديهم أدوات جديدة قوية يمكنها بشكل فعال دفع الأزرار العديدة لملايين الأشخاص.

هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعي، أو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.

ارشون فونغ، أستاذ المواطنة والحكم الذاتي ، مدرسة هارفارد كينيدي و لورانس ليسيجأستاذ القانون والقيادة جامعة هارفرد

تم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.


اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *