تخطى إلى المحتوى
آخر الأخبار
الرئيس الأسد يشارك في الاحتفال الديني بذكرى المولد النبوي الشريف في جامع سعد بن معاذ الرئيس الأسد يصدر مرسوماً يقضي بتكليف الدكتور محمد غازي الجلالي بتشكيل الوزارة في سورية.. الرئيس الأسد يهنئ الرئيس تبون بفوزه في الانتخابات الرئاسية الجزائرية الرئيس الأسد يصدر مرسوماً تشريعياً برفع نسبة تعيين الخريجين الأوائل من المعاهد التقانية في الجهات ال... روسيا تطالب بإنهاء الوجود العسكري الأجنبي الذي ينتهك السيادة السورية الرئيس الأسد يصدر مرسوماً بتعديل المواد المتعلقة بالعملية الانتخابية لغرف التجارة وغرف التجارة والصن... الرئيس الأسد يترأس اجتماعاً للقيادة المركزية.. وبحثٌ لدور كتلة الحزب داخل مجلس الشعب اللجنة العليا للاستيعاب الجامعي تقرر قبول الطلاب الناجحين بالشهادة الثانوية بفروعها كافة في الجامعات... الرئيس الأسد أمام مجلس الشعب: مجلسكم هو المؤسسة الأهم في مؤسسات الدولة وتأثيره لن يكون ملموساً إن لم... بحضور عرنوس وعدد من الوزراء.. ورشة عمل حوارية حول التغيرات المناخية وسبل مواجهتها

تطور الذكاء الاصطناعي يثير المخاوف بشأن خطر سيطرته على البشر

حذر العلماء من أن الإنسانية تخاطر بفقدان السيطرة على الذكاء الاصطناعي إذا استمر في التطور.

وأصبحت برامج الذكاء الاصطناعي أكثر شيوعا، حيث يقع استخدامها في العديد من المجالات حتى أنها بدأت تشكل تهديدا صارخا للكثيرين بشأن فقدان وظائفهم.

وحقق الخبراء مؤخرا تقدما كبيرا مع نظام ذكاء اصطناعي ثوري جديد لا يتوقف أبدا عن التعلم.

ولكن مع تطور هذه التكنولوجيا المستمر، حذرت مجموعة دولية من الباحثين من أن هناك مخاطر متزايدة للبرامج المستقلة.

وفي دراسة نُشرت في Journal of Arititial Intelligence Research Portal، قال المؤلف مانويل سيبراين: “تبدو الآلة فائقة الذكاء التي تتحكم في العالم وكأنها خيال علمي. ولكن هناك بالفعل آلات تنفذ مهام مهمة معينة بشكل مستقل دون أن يفهم المبرمجون تماما كيف تعلموها، وهو وضع يمكن أن يصبح في مرحلة ما غير قابل للسيطرة ويشكل خطرا على البشرية”.

ووفقا للدراسة، جرب العلماء طريقتين للتحكم في برمجيات الذكاء الاصطناعي، وعزلها عن الإنترنت وبرمجتها باستخدام خوارزمية تمنعها ​​من الأذى.

وأوقفت الطريقة الأولى التقنية عن أداء وظائفها الأساسية، ولكن من المثير للقلق أنه لا توجد خوارزمية يمكن أن تضمن الوقاية من الضرر.

ووفقا لما ذكره رائد الأعمال والباحث ومدير مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية، إياد رهوان: “إذا قمنا بتحليل المشكلة إلى قواعد أساسية للحوسبة النظرية، فقد اتضح أن الخوارزمية التي أوعزت للذكاء الاصطناعي بعدم تدمير العالم يمكن أن توقف عملياتها عن غير قصد”.

وتابع: “إذا حدث هذا (قيام نظام فائق الذكاء بإيذاء البشر)، فلن نعرف ما إذا كانت خوارزمية الاحتواء ستستمر في تحليل التهديد، أم أنها ستتوقف عن احتواء الذكاء الاصطناعي الضار. في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام”.

ويأتي ذلك في الوقت الذي يزعم فيه باحثو الذكاء الاصطناعي الذين يعملون على أنظمة التعرف على الوجه أن أجهزتهم يمكنها الآن التنبؤ بسياسة شخص ما أو تفضيله الجنسي من مجرد قياس وجهه.

وأجري البحث، الذي نُشر هذا الأسبوع في مجلة Nature Journal Scientific Reports، من قبل ميشال كوسينسكي من جامعة ستانفورد.

Facebook
Twitter
Telegram
WhatsApp
Print

إقرأ أيضامقالات مشابهة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

تابعونا على فيس بوك

مقالات