recent
أحدث مقالاتنا

هل يؤثر الذكاء الاصطناعي في الانتخابات المستقبلية ؟

هل يؤثر الذكاء الاصطناعي في الانتخابات المستقبلية ؟

هل يؤثر الذكاء الاصطناعي في الانتخابات المستقبلية ؟


المعركة ضد البروباجاندا هي سباق حياة أو موت من أجل الحقيقة، و قد نكون على وشك الخسارة بسبب الذكاء الاصطناعي!
تحدثنا في مقالٍ سابق عن الذكاء الصناعي وماهيته، واليوم نتناول في هذا المقال أحد التطبيقات الخبيثة للذكاء الاصطناعي، إذ تم تصميم برامج الروبوت - وهي برامج كمبيوتر بسيطة - في الأصل لأتمتة المهام المتكررة مثل تنظيم المحتوى أو إجراء صيانة الشبكة، وبالتالي توفير ساعات من عمل الإنسان، وتستخدم الشركات ومنافذ الوسائط أيضًا برامج الروبوت لتشغيل حسابات الوسائط الاجتماعية، لتنبيه المستخدمين بالأخبار العاجلة على الفور أو الترويج للمواد المنشورة حديثًا.

ولكن يمكن استخدامها أيضًا لتشغيل عدد كبير من الحسابات المزيفة، مما يجعلها مثالية للتلاعب بالناس. بحثنا في مشروع الدعاية الحاسوبية يدرس الطرق التي لا تعد ولا تحصى والتي تستخدم فيها البوتات الدعائية والترويجية التي تستخدم البيانات الكبيرة والأتمتة لنشر المعلومات الخاطئة وتشويه الخطاب على الإنترنت.

أثبتت برامج البوت (Bots) أنها واحدة من أفضل الطرق لبث وجهات النظر المتطرفة على وسائل التواصل الاجتماعي، وأيضًا لتضخيم مثل هذه الآراء من حسابات أخرى حقيقية عن طريق الإعجاب، والمشاركة، وإعادة الدمج، والقبض، والمتابعة، تمامًا كإرادة بشرية، وبذلك فهم يمارسون اللوغاريتمات، ويكافئون المشاركات التي تفاعلوا معها من خلال منحهم المزيد من الظهور والانتشار. سيبدو هذا بسيطا مقارنة بما هو قادم.

القوة في الأرقام فقط !

في أعقاب مزاعم تدخل روسيا في الانتخابات الأمريكية 2016، جاءت موجة من النقاش حول كيفية حماية السياسة من الدعاية. إذ قام موقع تويتر بشطب عشرات الملايين الحسابات المشبوهة، بما في ذلك برامج الروبوت أو الـ(Bots)، في حين اقترح المنظمون حظر البوتات وإجراءات شفافية، ودعا إلى تعاون أفضل مع منصات الإنترنت.

لذلك قد يبدو كما لو أننا كسبنا المعركة، وهذا صحيح إلى حد ما - فقد فقدت تكتيكات "البوت" جاذبيتها ولم يكن لها براعة أبدًا، وقد كانت قوتهم تكمن في الأرقام، وسيقوم دعاة الإعلام بتجييش جيوش منهم لإغراق الإنترنت بروابط المواقع والأخبار والردود في محاولة لإفشال الخطاب الديمقراطي الحقيقي.

ونظرًا لأننا كمبرمجين أنشأنا إجراءات مضادة تقنية تكون أفضل في اكتشاف السلوك الشبيه ببوت، فقد أصبح من الأسهل إغلاقها. والناس أيضا أصبحوا أكثر يقظة وفعالية في التعرف عليهم. لا يقوم البوت بالكثير لإخفاء طابعها الروبوتي، ويمكن لنظرة سريعة على أنماطها من التويتر، أو حتى صورتها الشخصية، التعرف على أنها مزيفة.

الجيل القادم من الروبوتات يتطور بسرعة، ولكن نظرًا إلى التقدم الكبير في معالجة اللغات الطبيعية - وهي التقنية نفسها التي تجعل من الممكن استخدام واجهات صوتية مثل Alexa و Google Assistant و Microsoft Cortana - ستعمل هذه البوتات بشكل يشبه الأشخاص الحقيقيين.

من المسلم به أن هذه الواجهات التحادثية لا تزال تتعثر، ولكنها تتحسن بسرعة، كما أن لها القدرة على فك شفرة لغة البشر بنجاح هائل، وفي ظل التطور السريع لهذه الوسائل سيعرضون أنفسهم في المستقبل على أنهم مستخدمين بشريين يشاركون في المحادثة عبر الإنترنت في أقسام التعليقات والدردشة الجماعية ولوحات الرسائل!

على عكس الاعتقاد الشائع، لم يحدث هذا حتى الآن؛ إذ تتفاعل معظم برامج الروبوت مع الكلمات الرئيسية التي تؤدي إلى استجابة معيارية مبرمجة، والتي نادراً ما تتلاءم مع السياق أو بناء جملة محادثة معينة. هذه الردود غالبا ما تكون سهلة ومكشوفة على الفور.

لكن الأمر يزداد صعوبة بالفعل، بعض البرامج النصية البسيطة المبرمجة مسبقا نجحت في تضليل المستخدمين؛ بينما تتعلم الروبوتات كيفية فهم السياق والنية وتصبح أكثر مهارة في الانخراط في المحادثة دون أن تُكشَّف.

في غضون بضع سنوات ، قد تبحث برامج البوت (bots) التخاطبية عن مستخدمين عرضة للتأثر وتتعامل معهم عبر قنوات الدردشة الخاصة، وستنقل المحادثات ببلاغة وتحلل بيانات المستخدم لتقديم دعاية مستهدفة، إذ ستوجه البوتات (Bots) الأشخاص نحو وجهات النظر المتطرفة والحجج المضادة بطريقة المحادثة الطبيعية.

بدلاً من بث الدعاية للجميع، ستوجه هذه البوتات نشاطها إلى الأشخاص ذوي النفوذ أو المعارضين؛ سيهاجمون الأفراد باستخدام خطاب كتابي يحض على الكراهية، ويطغون عليهم بالرسائل غير المرغوب فيها، أو يغلقوا حساباتهم بالإبلاغ عن محتواهم على أنه مسيء!

هل يؤثر الذكاء الاصطناعي في الانتخابات المستقبلية ؟

رائع لـ Google ، رائع للبرامج !

من الجدير بنا أن نلقي نظرة على الكيفية التي يتعلم بها الكمبيوتر والطريقة التي تتحسن بها تقنيات الذكاء الاصطناعي التي تغذي هذه الأنواع من البوتات، وذلك لأن الطرق التي تستخدمها شركات التكنولوجيا قد تكون رائعة أيضًا لتعزيز قدرات برامج الروبوت السياسية.

للعمل، تتطلب معالجة اللغة الطبيعية كميات كبيرة من البيانات، وتحصل شركات التكنولوجيا مثل غوغل وأمازون على مثل هذه البيانات من خلال فتح خوارزميات معالجة اللغة للعامة عبر واجهات برمجة التطبيقات، ويمكن للأطراف الخارجية - مثل البنك على سبيل المثال - التي تريد إجراء محادثات تلقائية مع عملائها إرسال بيانات أولية؛ مثل النصوص الصوتية أو النصية للمكالمات الهاتفية، إلى واجهات برمجة التطبيقات هذه. تقوم الخوارزميات بمعالجة اللغة وإرجاع البيانات القابلة للقراءة للجهاز وتصبح جاهزة لتشغيل الأوامر.
وفي المقابل ، تحصل شركات التكنولوجيا التي توفر هذه واجهات برمجة التطبيقات على إمكانية الوصول إلى كميات كبيرة من الأمثلة المحادثة، والتي يمكن استخدامها لتحسين التعلم الآلي والخوارزميات.

بالإضافة إلى ذلك، فإن جميع شركات التكنولوجيا الرئيسية تقريبًا توفر خوارزميات مفتوحة المصدر لمعالجة بيانات اللغة الطبيعية، ويمكن للمطورين استخدام هذه التطبيقات لإنشاء تطبيقات جديدة خاصة، مثل برمجيات الروبوت الذي يتم التحكم فيه عن طريق الصوت على سبيل المثال.

مع تقدم المطورين وتحسين الخوارزميات الأصلية، تستفيد شركات التكنولوجيا من ملاحظاتهم، وخبراتهم المتراكمة، وتكمن المشكلة في أن مثل هذه الخدمات متاحة على نطاق واسع لأي شخص تقريباً - بما في ذلك الأشخاص الذين يقومون ببناء الروبوتات السياسية أو الدعائية من خلال توفير مجموعة أدوات لأتمتة المحادثات.

الأسوأ لم يأت بعد !

إن البوتات التي تستخدم لغة بشرية لا تزال متأخرة نسبيا في الوقت الراهن، ولا تزال تتطلب خبرة كبيرة، وقوة حوسبة، وبيانات تدريبية لتزويد البوتات بأحدث خوارزميات معالجة اللغة. لكن هذا ليس بعيد المنال، فمنذ عام 2010، أنفقت الأحزاب السياسية والحكومات أكثر من نصف مليار دولار على التلاعب بوسائل التواصل الاجتماعي، مما حولها إلى قطاع يتمتع بدرجة عالية من الاحتراف والتمويل الجيد.

لا يزال هناك طريق طويل يجب قطعه قبل أن يتمكن برنامج الروبوت من محاكاة شخص في محادثة فردية، ومع تطور الخوارزميات ستظهر هذه القدرات بالتأكيد.

كما هو الحال مع أي ابتكار آخر، بمجرد أن تصبح تقنيات الذكاء الاصطناعى هذه خارج منطقة الجزاء، فإنها سوف تتخلص حتما من مجموعة التطبيقات المحدودة التي كانت مصممة أصلا لأدائها لتمر إلى الشمولية وينتشر خطرها كما انتشر خطر الأسلحة!

المصدر

technologyreview.com
google-playkhamsatmostaqltradent