أوروبا تسعى للحدّ من استخدام الذكاء الاصطناعي في المجتمع

أوروبا تسعى للحدّ من استخدام الذكاء الاصطناعي في المجتمع

أوروبا تسعى للحدّ من استخدام الذكاء الاصطناعي في المجتمع

بوابة أوكرانيا- كييف 15 ابريل 2021 سيتم حظر استخدام التعرف على الوجه للمراقبة ، أو الخوارزميات التي تتلاعب بالسلوك البشري ، بموجب لوائح الاتحاد الأوروبي المقترحة بشأن الذكاء الاصطناعي.

كما وعدت المقترحات واسعة النطاق ، التي تم تسريبها قبل نشرها الرسمي ، بقواعد جديدة صارمة لما يعتبرونه ذكاءً اصطناعيًا عالي الخطورة. و يتضمن ذلك الخوارزميات التي تستخدمها الشرطة والتجنيد. وقال الخبراء إن القواعد غامضة وتحتوي على ثغرات. و يعفى استخدام الذكاء الاصطناعي في الجيش ، وكذلك الأنظمة التي تستخدمها السلطات من أجل حماية الأمن العام.

و تشمل القائمة المقترحة لأنظمة الذكاء الاصطناعي المحظورة ما يلي:

و قد أضاف محلل السياسة الأوروبية دانييل لوفر قائلاً إن التعريفات كانت مفتوحة للغاية للتفسير. و كيف نحدد ما يلحق الضرر بشخص ما؟ ومن يقيم هذا؟

بالنسبة للذكاء الاصطناعي الذي يعتبر عالي الخطورة ، يتعين على الدول الأعضاء تطبيق المزيد من الرقابة ، بما في ذلك الحاجة إلى تعيين هيئات تقييم لاختبار هذه الأنظمة واعتمادها وفحصها. وأي شركة تطور خدمات محظورة ، أو تفشل في توفير المعلومات الصحيحة عنها ، قد تواجه غرامات تصل إلى 4٪ من إيراداتها العالمية ، على غرار الغرامات على انتهاكات اللائحة العامة لحماية البيانات.

و تشمل الأمثلة عالية الخطورة على الذكاء الاصطناعي ما يلي:

وأضاف السيد لوفر أنه ينبغي “توسيع نطاق المقترحات لتشمل جميع أنظمة الذكاء الاصطناعي في القطاع العام ، بغض النظر عن مستوى المخاطر المحدد لها, هذا لأن الناس عادة لا يملكون خيارًا بشأن التفاعل مع نظام ذكاء اصطناعي في القطاع العام أم لا.”

و بالإضافة إلى مطالبة أنظمة الذكاء الاصطناعي الجديدة بإشراف بشري ، تقترح المفوضية الأوروبية أيضًا أن أنظمة الذكاء الاصطناعي عالية الخطورة بها ما يسمى بمفتاح القفل ، والذي يمكن أن يكون إما زر إيقاف أو إجراء آخر لإيقاف تشغيل النظام على الفور إذا لزم الأمر.

و قال هربرت سانيكر ، المحامي في كليفورد تشانس: “سوف يركز بائعي الذكاء الاصطناعي بشدة على هذه المقترحات ، حيث سيتطلب ذلك تحولًا جوهريًا في كيفية تصميم الذكاء الاصطناعي”.

وفي الوقت نفسه ، سلط مايكل فيل ، وهو محاضر في الحقوق الرقمية والتنظيم في جامعة كوليدج لندن ، الضوء على بند من شأنه أن يجبر المنظمات على الإفصاح عن استخدام تقنية التزييف العميق ، وهو استخدام مثير للجدل بشكل خاص للذكاء الاصطناعي لإنشاء بشر مزيفين أو للتلاعب بالصور ومقاطع الفيديو لأشخاص حقيقيين .

و أضاف إن التشريع كان يستهدف في المقام الأول البائعين والمستشارين الذين يبيعون تكنولوجيا الذكاء الاصطناعي للمدارس والمستشفيات والشرطة وأصحاب العمل. و لكنه أضاف أن شركات التكنولوجيا التي استخدمت الذكاء الاصطناعي “للتلاعب بالمستخدمين” قد تضطر أيضًا إلى تغيير ممارساتها.

مع هذا التشريع ، كان على المفوضية الأوروبية أن تسير على حبل مشدود بين ضمان استخدام الذكاء الاصطناعي لما تسميه “أداة … بهدف نهائي هو زيادة رفاهية الإنسان” ، وكذلك ضمان عدم منع دول الاتحاد الأوروبي من التنافس معها. الولايات المتحدة والصين على الابتكارات التكنولوجية. وأقرت بأن الذكاء الاصطناعي قد بلغ بالفعل العديد من جوانب حياتنا.

و قال المركز الأوروبي للقانون غير الهادف للربح ، الذي ساهم في الكتاب الأبيض للمفوضية الأوروبية حول الذكاء الاصطناعي ، لبي بي سي إن التشريع المقترح يشتمل على “الكثير من الغموض والثغرات”.

“إن نهج الاتحاد الأوروبي في تحديد المخاطر العالية مقابل المخاطر المنخفضة هو نهج سيء في أحسن الأحوال وخطير في أسوأ الأحوال ، لأنه يفتقر إلى السياق والفروق الدقيقة اللازمة للنظام البيئي المعقد للذكاء الاصطناعي الموجود بالفعل اليوم. أولاً ، يجب أن تنظر اللجنة في مخاطر أنظمة الذكاء الاصطناعي ضمن إطار قائم على الحقوق – باعتبارها مخاطر تشكلها على حقوق الإنسان وسيادة القانون والديمقراطية. و ثانيا ، يجب على اللجنة رفض هيكل المخاطر المنخفضة للغاية والمبسط بشكل مفرط والنظر في نهج قائم على المستويات بشأن مستويات مخاطر الذكاء الاصطناعي.”

و قد تتغير التفاصيل مرة أخرى قبل الكشف عن القواعد رسميًا الأسبوع المقبل. ومن غير المرجح أن يصبح قانونًا لعدة سنوات أخرى.

إقرأ أيضا:علوم و تقنية : الذكاء الصناعي قادر على كتابة السير الذاتية الان