الاتحاد الأوروبي يتوصل إلى اتفاق بشأن أول قواعد شاملة للذكاء الاصطناعي في العالم

بوابة اوكرانيا – كييف في 9 ديسمبر 2023- توصل مفاوضو الاتحاد الأوروبي إلى اتفاق يوم الجمعة بشأن أول قواعد شاملة للذكاء الاصطناعي في العالم، مما يمهد الطريق للرقابة القانونية على التكنولوجيا المستخدمة في خدمات الذكاء الاصطناعي التوليدية الشهيرة مثل ChatGPT التي وعدت بتغيير الحياة اليومية وأثارت تحذيرات من مخاطر وجودية على البشرية.
وتغلب المفاوضون من البرلمان الأوروبي والدول الأعضاء الـ 27 في الكتلة على خلافات كبيرة حول النقاط المثيرة للجدل بما في ذلك الذكاء الاصطناعي التوليدي واستخدام الشرطة لمراقبة التعرف على الوجه للتوقيع على اتفاق سياسي مبدئي لقانون الذكاء الاصطناعي.
“اتفاق!” غرد المفوض الأوروبي تييري بريتون، قبل منتصف الليل بقليل. “يصبح الاتحاد الأوروبي أول قارة تضع قواعد واضحة لاستخدام الذكاء الاصطناعي.”
وجاءت النتيجة بعد محادثات ماراثونية مغلقة هذا الأسبوع، حيث استمرت الجلسة الأولية 22 ساعة قبل بدء الجولة الثانية صباح الجمعة.
كان المسؤولون تحت السلاح لضمان انتصار سياسي للتشريع الرئيسي، لكن كان من المتوقع أن يتركوا الباب مفتوحًا لمزيد من المحادثات لوضع التفاصيل الدقيقة، والتي من المرجح أن تؤدي إلى مزيد من الضغط في الغرف الخلفية.
أخذ الاتحاد الأوروبي زمام المبادرة في وقت مبكر في السباق العالمي لوضع حواجز الحماية للذكاء الاصطناعي عندما كشف النقاب عن المسودة الأولى لكتاب القواعد الخاص به في عام 2021. ومع ذلك، فإن الطفرة الأخيرة في الذكاء الاصطناعي التوليدي دفعت المسؤولين الأوروبيين إلى التدافع لتحديث اقتراح من شأنه أن يكون بمثابة مخطط أولي. للعالم.
وقال براندو بينيفي، وهو مشرع إيطالي يشارك في قيادة جهود التفاوض في الهيئة، لوكالة أسوشيتد برس في وقت متأخر من يوم الجمعة، إن البرلمان الأوروبي سيظل بحاجة إلى التصويت عليه في أوائل العام المقبل، لكن مع إبرام الاتفاق، يعد ذلك إجراء شكليا.
وقال في رسالة نصية بعد سؤاله عما إذا كانت تحتوي على كل ما يريده: “إنه جيد جدًا”. “من الواضح أنه كان علينا قبول بعض التنازلات ولكن بشكل عام جيد جدًا.” ولن يدخل القانون النهائي حيز التنفيذ بالكامل حتى عام 2025 على أقرب تقدير، ويهدد بعقوبات مالية صارمة على الانتهاكات التي تصل إلى 35 مليون يورو (38 مليون دولار) أو 7 في المائة من حجم مبيعات الشركة العالمية.
لقد انفجرت أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT من OpenAI في وعي العالم، مما أبهر المستخدمين بالقدرة على إنتاج نصوص وصور وأغاني تشبه الإنسان، ولكنها أثارت المخاوف بشأن المخاطر التي تشكلها التكنولوجيا سريعة التطور على الوظائف والخصوصية وحماية حقوق الطبع والنشر وحتى حياة الإنسان. بحد ذاتها.
الآن، تقدمت الولايات المتحدة والمملكة المتحدة والصين والتحالفات العالمية مثل مجموعة السبعة من الديمقراطيات الكبرى بمقترحاتها الخاصة لتنظيم الذكاء الاصطناعي، على الرغم من أنها لا تزال تلحق بأوروبا.
وقال آنو برادفورد، الأستاذ في كلية الحقوق بجامعة كولومبيا والخبير في الاتحاد الأوروبي والتنظيم الرقمي، إن التنظيم القوي والشامل من الاتحاد الأوروبي “يمكن أن يكون مثالاً قوياً للعديد من الحكومات التي تفكر في التنظيم”. الدول الأخرى “قد لا تنسخ كل حكم ولكن من المرجح أن تحاكي العديد من جوانبه”.
وقالت إن شركات الذكاء الاصطناعي التي سيتعين عليها الالتزام بقواعد الاتحاد الأوروبي، من المرجح أيضًا أن توسع بعض هذه الالتزامات لتشمل أسواقًا خارج القارة. وقالت: “في نهاية المطاف، ليس من الكفاءة إعادة تدريب نماذج منفصلة لأسواق مختلفة”.
ويشعر آخرون بالقلق من التعجيل بالاتفاق.
وقال دانييل فريدلندر، رئيس المكتب الأوروبي لرابطة صناعة الكمبيوتر والاتصالات، وهي مجموعة ضغط لصناعة التكنولوجيا: “يمثل الاتفاق السياسي اليوم بداية العمل الفني المهم والضروري بشأن التفاصيل الحاسمة لقانون الذكاء الاصطناعي، والتي لا تزال مفقودة”.
تم تصميم قانون الذكاء الاصطناعي في الأصل للتخفيف من المخاطر الناجمة عن وظائف محددة للذكاء الاصطناعي بناءً على مستوى المخاطر، من منخفض إلى غير مقبول. لكن المشرعين دفعوا لتوسيع نطاقه ليشمل النماذج الأساسية، وهي الأنظمة المتقدمة التي تدعم خدمات الذكاء الاصطناعي للأغراض العامة مثل ChatGPT وBard chatbot من Google.
يبدو أن نماذج الأساس ستكون واحدة من أكبر النقاط الشائكة بالنسبة لأوروبا. ومع ذلك، تمكن المفاوضون من التوصل إلى حل وسط في وقت مبكر من المحادثات، على الرغم من المعارضة التي قادتها فرنسا، والتي دعت بدلاً من ذلك إلى التنظيم الذاتي لمساعدة شركات الذكاء الاصطناعي الأوروبية المحلية التي تتنافس مع المنافسين الأمريكيين الكبار بما في ذلك شركة مايكروسوفت الداعمة لشركة OpenAI.
تُعرف هذه الأنظمة أيضًا باسم نماذج اللغات الكبيرة، ويتم تدريبها على مجموعات كبيرة من الأعمال المكتوبة والصور المحذوفة من الإنترنت. إنها تمنح أنظمة الذكاء الاصطناعي التوليدية القدرة على إنشاء شيء جديد، على عكس الذكاء الاصطناعي التقليدي، الذي يعالج البيانات ويكمل المهام باستخدام قواعد محددة مسبقًا.
وبموجب الصفقة، فإن النماذج الأساسية الأكثر تقدما التي تشكل أكبر “المخاطر النظامية” سوف تخضع لمزيد من التدقيق، بما في ذلك متطلبات الكشف عن المزيد من المعلومات مثل مقدار قوة الحوسبة المستخدمة لتدريب الأنظمة.
وقد حذر الباحثون من أن هذه النماذج الأساسية القوية، التي بنتها مجموعة من شركات التكنولوجيا الكبرى، يمكن استخدامها لتعزيز التضليل والتلاعب عبر الإنترنت، أو الهجمات الإلكترونية أو إنشاء أسلحة بيولوجية.
تحذر جماعات حقوق الإنسان أيضًا من أن الافتقار إلى الشفافية بشأن البيانات المستخدمة لتدريب النماذج يشكل مخاطر على الحياة اليومية لأنها تعمل كهياكل أساسية لمطوري البرامج الذين يبنون خدمات مدعومة بالذكاء الاصطناعي.
ما أصبح الموضوع الشائك هو أنظمة مراقبة التعرف على الوجه التي تعمل بالذكاء الاصطناعي، وقد توصل المفاوضون إلى حل وسط بعد مساومة مكثفة.
أراد المشرعون الأوروبيون فرض حظر كامل على الاستخدام العام لمسح الوجه وغيره من أنظمة “تحديد الهوية البيومترية عن بعد” بسبب مخاوف تتعلق بالخصوصية، بينما أرادت حكومات الدول الأعضاء إعفاءات حتى تتمكن سلطات إنفاذ القانون من استخدامها لمعالجة الجرائم الخطيرة مثل الاستغلال الجنسي للأطفال أو الهجمات الإرهابية.
وكانت مجموعات المجتمع المدني أكثر تشككا.
وقال دانييل لوفر، أحد كبار محللي السياسات في مجموعة الحقوق الرقمية Access Now: “مهما كانت الانتصارات في هذه المفاوضات النهائية، تظل الحقيقة أن عيوبًا كبيرة ستظل موجودة في هذا النص النهائي”. وإلى جانب استثناءات إنفاذ القانون، أشار أيضًا إلى نقص الحماية لأنظمة الذكاء الاصطناعي المستخدمة في الهجرة ومراقبة الحدود، و”الفجوات الكبيرة في الحظر المفروض على أنظمة الذكاء الاصطناعي الأكثر خطورة”.