كشف تقرير صادر عن (Future of Life Institute)، أن ممارسات السلامة لدى شركات الذكاء الاصطناعي الكبرى مثل OpenAI وAnthropic وMeta وxAI لا تزال بعيدة عن المعايير العالمية الناشئة، رغم سباقها المحموم لتطوير أنظمة فائقة الذكاء، وفقا لما نقلت رويترز. فجوة بين التطوير والرقابة * التقييم الذي أجراه خبراء مستقلون أظهر أن هذه الشركات تفتقر إلى استراتيجيات قوية للسيطرة على الأنظمة المتقدمة. * يأتي التقرير وسط قلق متزايد من تأثير الأنظمة "الأذكى من البشر" على المجتمع، خاصة بعد حوادث مرتبطة بالانتحار وإيذاء النفس نتيجة التفاعل مع روبوتات محادثة. تصريحات وتحذيرات * البروفيسور ماكس تيغمارك من MIT ورئيس المعهد قال، إن شركات الذكاء الاصطناعي في الولاياتالمتحدة "أقل تنظيمًا من المطاعم" وتواصل الضغط ضد معايير إلزامية. * علماء بارزون مثل جيفري هينتون ويوشوا بنجيو، دعوا إلى حظر تطوير الذكاء الاصطناعي الفائق حتى توجد ضمانات علمية آمنة. اقرأ ايضا OpenAI يكشف أكثر ميزات ChatGPT استخداما حول العالم ردود الشركات * متحدث باسم Google DeepMind أكد أن الشركة ستواصل الابتكار في مجال السلامة والحوكمة بما يتماشى مع تطور القدرات. * شركة xAI ردت بعبارة مقتضبة: "وسائل الإعلام التقليدية تكذب"، في ما بدا أنه رد آلي. * شركات أخرى مثل Anthropic وOpenAI وMeta لم ترد على طلبات التعليق. أهمية التقرير التقرير يسلط الضوء على فجوة واضحة بين السرعة في تطوير الذكاء الاصطناعي وبين الاستعداد لضبط مخاطره، ويؤكد الحاجة إلى أطر تنظيمية دولية لضمان أن التطورات التقنية لا تتحول إلى تهديدات اجتماعية أو بيئية.