fbpx

الناس نيوز

جريدة إلكترونية أسترالية مستقلة

رئيس التحرير - جوني عبو

Edit Content
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
آراء
أخبار
أستراليا
إدارة وتكنولوجيا
إعلان
اقتصاد
اقتصاد أستراليا
اقتصاد عالمي
اقتصاد عربي
تقارير وتحقيقات
ثقافة وفنون
حكايا
خبر رئيس
رياضة
رياضة أستراليا
رياضة عالمية
رياضة عربية
سياحة وسفر
سياسة أسترالية
سياسة عالمية
سياسة عربية
صحة
صور
عدسة
فن الناس
في الوطن الجديد
فيديو
كاريكاتير
لايف ستايل
متفرقات
مجتمع
مجتمع الناس
موضه
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
آراء
أخبار
أستراليا
إدارة وتكنولوجيا
إعلان
اقتصاد
اقتصاد أستراليا
اقتصاد عالمي
اقتصاد عربي
تقارير وتحقيقات
ثقافة وفنون
حكايا
خبر رئيس
رياضة
رياضة أستراليا
رياضة عالمية
رياضة عربية
سياحة وسفر
سياسة أسترالية
سياسة عالمية
سياسة عربية
صحة
صور
عدسة
فن الناس
في الوطن الجديد
فيديو
كاريكاتير
لايف ستايل
متفرقات
مجتمع
مجتمع الناس
موضه
Edit Content
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
آراء
أخبار
أستراليا
إدارة وتكنولوجيا
إعلان
اقتصاد
اقتصاد أستراليا
اقتصاد عالمي
اقتصاد عربي
تقارير وتحقيقات
ثقافة وفنون
حكايا
خبر رئيس
رياضة
رياضة أستراليا
رياضة عالمية
رياضة عربية
سياحة وسفر
سياسة أسترالية
سياسة عالمية
سياسة عربية
صحة
صور
عدسة
فن الناس
في الوطن الجديد
فيديو
كاريكاتير
لايف ستايل
متفرقات
مجتمع
مجتمع الناس
موضه

جريدة إلكترونية أسترالية مستقلة

رئيس التحرير - جوني عبو

خبير بريطاني يحذر من خطر “الذكاء الاصطناعي الخارق”

لندن – الناس نيوز ::

أكد العالم البريطاني ستيوراد راسل – المعروف بإسهاماته في الذكاء الاصطناعي- أن أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها.

كان البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أكثر قدرة من OpenAI’s GPT-4 التي تم إطلاقها حديثًا – خليفة برنامج الدردشة عبر الإنترنت ChatGPT وهو مدعوم من GPT-3.5.

نقلت شبكة سكاي نيوز عن راسل قوله: “لقد وقعت على الخطاب لأنني أعتقد أنه يجب أن يقال إننا لا نفهم كيف تعمل هذه الأنظمة (الأكثر قوة). لا نعرف ما هي قادرة على انجازه. وهذا يعني أننا لا نستطيع السيطرة عليها”.
لفت إلى أن “الناس قلقون بشأن التضليل والتحيز العنصري والجنساني في مخرجات هذه الأنظمة”.
أضاف أن أحد أكبر المخاوف هو المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص تم تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر – يتم استخدامه عادةً بشكل ضار أو لنشر معلومات كاذبة).

حذر الخبير، وهو أستاذ علوم الكمبيوتر في جامعة كاليفورنيا من “التأثير الهائل لهذه الأنظمة إلى الأسوأ من خلال التلاعب بالناس بطرق لا يدركون حتى حدوثها”.
قال إن الصين وروسيا وكوريا الشمالية لديها فرق كبيرة “تضخ المعلومات المضللة” وباستخدام الذكاء الاصطناعي “أعطيناهم أداة قوية”.
أضاف “قلق الرسالة يتعلق حقًا بالجيل القادم من النظام. في الوقت الحالي، تعاني الأنظمة من بعض القيود في قدرتها على إنشاء خطط معقدة.”
تابع “أنه في ظل الجيل التالي من الأنظمة، أو الذي يليه، يمكن أن تدار الشركات بواسطة أنظمة الذكاء الاصطناعي. وأضاف: “يمكن أن ترى حملات عسكرية تنظمها أنظمة ذكاء اصطناعي”.
أضاف “إذا كنت تبني أنظمة أقوى من البشر، فكيف يحافظ البشر على سلطتهم على تلك الأنظمة إلى الأبد؟ هذا هو الشاغل الحقيقي وراء الرسالة المفتوحة.”

اقناع الحكومات

شدد الخبير على أنه ضرورة إقناع الحكومات بالحاجة إلى البدء في التخطيط للمستقبل عندما “نحتاج إلى تغيير الطريقة التي يعمل بها نظامنا البيئي الرقمي بأكمله”.
لفت إلى أنه منذ إصداره العام الماضي، حث ChatGPT التابع لشركة Microsoft OpenAI المدعوم من Microsoft ، المنافسين على تسريع تطوير نماذج لغات كبيرة مماثلة وشجع الشركات على دمج نماذج الذكاء الاصطناعي التوليدية في منتجاتها.

المنشورات ذات الصلة

انتصرنا!

ميديا – الناس نيوز :: الشرق الأوسط – طارق حميّد