اخبارالأخبار

ناروز خليل يكتب: لماذا تخاف القارة العجوز من التطور.. وتحاصر الذكاء الاصطناعى؟!

IMG 20230618 WA0034 jpg1687106583

أقرّ مشروعون في الاتحاد الأوروبي، منذ أيام، تعديلات على مسودة لقواعد الذكاء الاصطناعي، يرى كثيرون أنها ضرورية لتنظيم استخدامات هذه التقنية الثورية، بينما ينظر إليها آخرون بأنها تمثل “حواجز تشريعية” أمام تطوير هذا المجال الذي له استعمالات مفيدة أيضا وعلى درجة عالية من الأهمية.

ومن بين التعديلات التي أقرّها المشرعون في مسودة قواعد الذكاء الاصطناعي، حظر استخداماته في رصد القياسات الحيوية مثل بصمة الوجه والصوت.

كذلك تشمل التعديلات، إلزام مستخدمي الأنظمة التوليدية للذكاء الاصطناعي مثل “تشات جي بي تي”، بالكشف عن أن المحتوى الناتج عنها، تم بالاستعانة بهذه التقنية.

مواد محميةويريد المشرعون من الشركات، الكشف عن أي مواد محمية بحقوق الملكية الفكرية تستخدمها في تدريب أنظمتها للذكاء الاصطناعي.

وتقوم فكرة الإطار التنظيمي للاتحاد الأوربي بالنسبة للذكاء الاصطناعي على تحليل تلك الأنظمة، وتصنيفها وفقا للمخاطر التي تشكلها على المستخدمين.

خطر على الأطفالوتمثل المخاطر غير المقبولة، تلك التي تعتبر تهديدا للمستخدمين وسيتم حظرها، مثل التلاعب السلوكي المعرفي للأشخاص أو المجموعات الضعيفة، كالألعاب التي يتم تنشيطها بالصوت والتي تشجع على السلوك الخطير لدى الأطفال.

ويندرج تصنيف الأشخاص على أساس السلوك أو الحالة الاجتماعية والاقتصادية أو الخصائص الشخصية، تحت الفئة الأولى من المخاطر.

وقد يسمح ببعض الاستثناءات مثل أنظمة تحديد الهوية عن بعد، حيث سيتيح ذلك محاكمة المجرمين الخطيرين، شريطة موافقة المحكمة.

أما الفئة الثانية من المخاطر فهي العالية، أي التي تؤثر سلبا على السلامة أو الحقوق الأساسية، وستقسّم إلى أنظمة الذكاء الاصطناعي المستخدمة في المنتجات التي تندرج تحت تشريعات السلامة في الاتحاد الأوروبي، ويشمل ذلك الألعاب والطيران والسيارات والأجهزة الطبية والمصاعد.

ثمانية مجالات محددةوستندرج أنظمة الذكاء الاصطناعي في ثمانية مجالات محددة يجب تسجيلها في قاعدة بيانات الاتحاد الأوروبي، وهي تحديد الهوية وتصنيف الأشخاص، وإدارة وتشغيل البنية التحتية الحيوية، والتعليم والتدريب المهني، والتوظيف وإدارة العمال والوصول إلى العمل الحر، والتمتع بالخدمات الأساسية الخاصة والخدمات والمزايا العامة، وتطبيق القانون، وإدارة الهجرة واللجوء ومراقبة الحدود، والمساعدة في التفسير القانوني وتطبيق القانون.

وستقيّم جميع أنظمة الذكاء الاصطناعي عالية المخاطر قبل طرحها، وأيضا طوال دورة حياتها.

ويقع الذكاء الاصطناعي التوليدي في الفئة الثالثة للمخاطر، إذ يؤكد الاتحاد الأوروبي على ضرورة توافق ذلك النوع من الذكاء مثل “تشات جي بي تي” مع متطلبات الشفافية.

وتتضمن متطلبات الشفافية، الكشف عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، وتصميم النموذج لمنعه من توليد محتوى غير قانوني، ونشر ملخصات للبيانات المحمية بحقوق النشر والمستخدمة للتدريب.

وأخيرا، يجب أن تمتثل أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة مع الحد الأدنى من متطلبات الشفافية التي من شأنها أن تسمح للمستخدمين باتخاذ قرارات مستنيرة.

أي بعد التفاعل مع التطبيقات، يمكن للمستخدم بعد ذلك أن يقرر ما إذا كان يريد الاستمرار في استخدامه.

ويجب توعية المستخدمين عند تفاعلهم مع تقنيات الذكاء الاصطناعي، ويتضمن ذلك تلك التي تنشئ محتوى الصور أو الصوت أو الفيديو أو تتلاعب به، كالتزييف العميق على سبيل المثال.

الخطوة التاليةوبالنسبة للخطوة التالية بالنسبة للمشروع، فستكون المحادثات مع دول الاتحاد الأوروبي بشأن الشكل النهائي للقانون، من أجل إلى اتفاق بحلول نهاية هذا العام.

ما من شك حول أهمية اللوائح المقترحة، وخاصة النهج القائم على المخاطر، والذي يدرك المستويات المختلفة للمخاطر التي تشكلها أنظمة الذكاء الاصطناعي في سياقات مختلفة.

وشخصيا فأنا متفائل بأن التنظيم المقترح، باعتباره أول إطار قانوني للذكاء الاصطناعي في جميع أنحاء العالم، يمكن أن يساعد في وضع معايير دولية لتمكين الفوائد وتخفيف مخاطر هذه المجموعة القوية من التقنيات.

ومع ذلك، فإن تأثير هذه اللائحة سيعتمد على العديد من التفاصيل المحددة للتنفيذ، وكيف يمكن أن تتفاعل مع الأجزاء المتطورة الأخرى من نظام حوكمة الذكاء الاصطناعي.

التاثيرات الإجتماعيةومن الضروري أيضا مراعاة عدة جوانب أراها مهمة للغاية، فرغم التركيز المكثف على التأثيرات المجتمعية طويلة المدى للذكاء الاصطناعي، ولكن ماذا عن تكيف القواعد التنظيمية مع القدرات والمخاطر الجديدة عند ظهورها، وخصوصا أن هذه التكنولوجيا تتفاعل مع التقنيات الناشئة الأخرى، ويمكن أن يكون لها تأثيرات واسعة النطاق.

نقطة أخرى مهمة هي إدارة التأثيرات المجتمعية الأوسع نطاقا للذكاء الاصطناعي، فمثل جميع التقنيات، قد يتسبب هذا الذكاء في أضرار على مستوى المجتمع، حتى لو كان تأثيره المباشر على الأفراد ضئيلا.

فعلى سبيل المثال، قد يؤدي استخدام الذكاء الاصطناعي لإنشاء محتوى مزيف عبر الإنترنت إلى تقليل الثقة العامة في المعلومات العلمية بطرق قد تتسبب في أضرار بالمحصلة النهائية، دون المساس بالأفراد بشكل مباشر.

وقد يكون من المفيد أيضا النظر في كيفية تحديد وتنظيم الاستخدامات عالية المخاطر لأنظمة الذكاء الاصطناعي في الأغراض العامة، ومراقبة الشركات التي قد تقلل عن قصد من التأكيد على الدور الذي يلعبه الذكاء الاصطناعي في صنع القرار.

وقبل وقوع أي أضرار، فمن المجدي أيضا تحديد الخطوط العريضة والمواصفات العامة المسموح بها لتطبيقات الذكاء الاصطناعي والموافقة عليها قبل إبصارها النور، وتعظيم المشاركة في دراسة إعداد هذه القدرات لتقليل المخاطر.

تحديث المخاطروالأهم من كل ما تقدم، جدولة الأطر الزمنية المحددة للنظر في المراجعات التي تغطيها اللوائح التنظيمية لأنظمة الذكاء الاصطناعي، والعمل على تحديث المخاطر والقيود باستمرار.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى