واشنطن – الناس نيوز ::
التطور السريع جدا لبرامج الذكاء الاصطناعي أثار مخاوف جمة من أن هذا التطور غير المحسوب ربما يمثل مخاطر كبيرة على البشرية إذا لم يتم تنظيمه.
هذه المخاوف دفعت في نهاية مارس الماضي مئات الخبراء العالميين للتوقيع على عريضة دعوا فيها إلى وقف مؤقت مدته ستة أشهر لتطوير برامج للذكاء الاصطناعي أقوى من “ChatGPT 4″، وذلك حتى يتم اعتماد أنظمة حماية من هذه البرامج، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، وإيجاد آليات لمراقبة أنظمة الذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع المشاكل الاقتصادية والسياسية التي قد تتسبب بها هذه البرامج.
وهذا ما تدرسه الولايات المتحدة الآن، فقد اتخذت الحكومة الأمريكية خطوة مهمة نحو تنظيم أدوات الذكاء الاصطناعي لوضع ضوابط على التقنيات الجديدة مثل ChatGPT.
وزارة التجارة الأميركية دعت اللاعبين الرئيسيين بالقطاع لتقديم تصور لإدارة الرئيس جو بايدن لإعداد نظم لضبط أدوات الذكاء الاصطناعي.
وكان بايدن قد صرّح الأسبوع الماضي إنه لا يمكن الجزم فيما إذا كان الذكاء الاصطناعي يشكل خطرا على المجتمع، لكنه حض الكونغرس على تمرير قوانين تضع قيودا صارمة على شركات التكنولوجيا الضخمة.
وقالت وزارة التجارة في بيان “مثلما لا يتم توزيع الطعام والسيارات في الأسواق دون ضمان مناسب للسلامة، كذلك يجب أن توفر أنظمة الذكاء الاصطناعي ضمانا للعامة والحكومة والشركات بأنها ملائمة”.
ورغم أن الولايات المتحدة هي موطن أكبر شركات التكنولوجيا والذكاء الاصطناعي، بما في ذلك شركة “Open AI” المدعومة من مايكروسوفوت والتي أنشأت “ChatGPT”، إلا أنها متأخرة دوليا في مجال الأنظمة التي ترعى القطاع.
وقال استشاري العلوم الادارية وتكنولوجيا المعلومات في G&K عاصم جلال لموقع اقتصاد سكاي نيوز عربية إن “الذكاء الاصطناعي لازال في فجر عصره ولا توجد بعد معايير تحدد إن كان يمكن مقارنته بذكاء الانسان أو إبداعه، ناهيك عن وعيه”.
وتابع قائلا “هناك تساؤلات كثيرة عن المعايير الاخلاقية والقيم التي يجب ان يتحلى بها الذكاء الاصطناعي، الذي سينوط باتخاذ قرارات لحظية قد ينتج عنها مثلا وفاة راكب سيارة ذاتية او عابر للطريق حال اصطدامهم في حادثة طريق، كذلك فان التعلم الذي يرتكز عليه الذكاء الصناعي يشمل مصادر منها السليم وغير السليم، ومن هنا جاءت الحاجة لوضع معايير ومقاييس لحماية المستخدم من مخاطر هائلة قد تحملها هذا الطفرة الهائلة معها”.
الإدارة الوطنية للاتصالات والمعلومات، وهي وكالة تابعة لوزارة التجارة، أخذت على عاتقها مسألة جمع الآراء والبيانات حول السبل الأمثل لفرض ضوابط حاكمة لقطاع أدوات الذكاء الاصطناعي لتوفير ضمان “بأن هذه الأنظمة قانونية وفعالة وأخلاقية وآمنة وجديرة بالثقة”، لكن دون أن تحد هذه الضوابط من الإبداع والابتكار الذان يمثلان حجر الأساس في هذا القطاع.
مدير الوكالة ألان ديفدسون أكد أن “أنظمة الذكاء الاصطناعي المسؤولة يمكن أن تحقق فوائد هائلة، ولكن فقط إذا عالجنا عواقبها وأضرارها المحتملة، ولكي تصل هذه الأنظمة إلى إمكاناتها الكاملة، يجب أن تكون الشركات والمستهلكون قادرين على الوثوق بها”
وكان برنامج ذكاء اصطناعي ChatGPT، قد استحوذ مؤخرًا على انتباه الجمهور لقدرته على كتابة إجابات سريعة لمجموعة واسعة من الاستفسارات، ليصبح التطبيق الأسرع نموًا في التاريخ مع أكثر من 100 مليون مستخدم نشط شهريًا.