أظهر تقرير حديث، ارتفاعًا مذهلاً في حركة البيانات المتعلقة بالذكاء الاصطناعي التوليدي، لكنه يُسلط الضوء أيضًا على تزايد الحوادث الأمنية المرتبطة بها. وبحسب التقرير الصادر عن بالو ألتو نتوركس العالمية، عن نتائج "تقرير حالة الذكاء الاصطناعي التوليدي"، الذي يستكشف مستويات اعتماد واستخدام هذه التكنولوجيا المبتكرة، ان الشركات اليوم، تتبنى الذكاء الاصطناعي بوتيرة متسارعة جدًا، شبيهة بالإقبال على الحوسبة السحابية في بداياتها، لكن الذكاء الاصطناعي قادر على إحداث تحولات جذرية ذات أثر أوسع. و على سبيل المثال، تؤدي زيادة الإنتاجية التي تشهدها بعض المؤسسات بفضل استخدام الذكاء الاصطناعي التوليدي إلى إحداث أثر اقتصادي متزايد يصل إلى 40%. ونظرًا للوعود الكبيرة التي تنطوي عليها هذه التقنية، تتجه الكثير من الشركات إلى استكشاف جدوى حلول الذكاء الاصطناعي الجاهزة لما توفره من سرعة في النشر، وتكاليف يمكن احتسابها، وإمكانية الوصول إلى أحدث الخصائص، إلى جانب الأنظمة والتطبيقات المطوّرة داخليًا. ووفقًا للتقرير، ازدادت حركة البيانات المرتبطة بالذكاء الاصطناعي التوليدي بأكثر من 890% في عام 2024، ويُعزى هذا الارتفاع الكبير إلى نماذج الذكاء الاصطناعي التي تواصل نضجها، ومستويات الأتمتة المؤسسية المتنامية، والاعتماد الأكبر المستند إلى المكاسب الإنتاجية المثبتة. و تشير مستويات الاعتماد والاستخدام المتنامية إلى تحول الذكاء الاصطناعي التوليدي من كونه أداة وليدة إلى مرفق هام وحيوي في معظم القطاعات. هذا و شهدت حوادث منع فقدان البيانات (DLP) للذكاء الاصطناعي التوليدي ارتفاعًا بأكثر من الضعف، حيث ازداد عدد الحوادث الأمنية المتعلقة بالذكاء الاصطناعي التوليدي بنحو 2.5 مرة، أي ما يشكل حاليًا نحو 14% من إجمالي حوادث أمن البيانات. و تساهم تطبيقات الذكاء الاصطناعي التوليدي في زيادة نقاط الضعف التي يمكن من خلالها فقدان البيانات، إذ يمكن أن يؤدي الاستخدام غير المسؤول أو غير المنضبط إلى تسريبات متعلقة بحقوق الملكية، ومخاوف متعلقة بالامتثال التنظيمي، إلى جانب خروقات مرتبطة بالبيانات. وقد شهدت المؤسسات في المتوسط استخدام **66 تطبيق ذكاء اصطناعي توليدي، تم تصنيف 10% منها على أنها عالية الخطورة. يمكن للانتشار واسع النطاق في الاستخدام غير المنضبط والمنظم لأدوات الذكاء الاصطناعي التوليدي، والافتقار إلى سياسات ذكاء اصطناعي واضحة، وضغوط تسريع اعتماد الذكاء الاصطناعي بدون وجود ضوابط أمنية محكمة، أن يؤدي إلى تعريض المؤسسات لمخاطر كبيرة، خاصة من تطبيقات الذكاء الاصطناعي التوليدي المصنفة على أنها عالية الخطورة. - الذكاء الاصطناعي التوليدي و الكتابة والمحادثات والبرمجة تنتج الغالبية العظمى (83.8%) من معاملات الذكاء الاصطناعي التوليدي من أربع حالات استخدام أساسية هي: أدوات المساعدة في الكتابة، ووكلاء المحادثة، والبحث المؤسسي، ومنصات المطوّرين. تحظى هذه الأدوات بشعبية واسعة بين الموظفين لأنها تساعد في معالجة المهام اليومية المتكررة مباشرة والتي يعتمد عليها الأفراد والشركات على حد سواء: - أدوات المساعدة في الكتابة وهي تساعد الأفراد في مختلف مراحل الكتابة سواء في صياغة رسائل البريد الإلكتروني، أو إنشاء منشورات المدونات، أو إعداد التقارير. - وكلاء المحادثة وهم روبوتات يوفرون ردودًا فورية بلغة طبيعية على مجموعة واسعة من الأسئلة، مما يجعلهم مفيدين في مجالات خدمة العملاء، والتعلم، وزيادة الإنتاجية. - البحث المؤسسي يسهل اطلاع الموظفين على معلومات ذات صلة وأكثر تخصيصًا ضمن كميات ضخمة من بيانات المؤسسة، وبشكل أسرع. - منصات المطورين وهي توفر مجموعة من الأدوات والخدمات التي تساعد المطورين في بناء وتدريب ونشر تطبيقات البرمجيات، بما في ذلك التطبيقات المعتمدة على الذكاء الاصطناعي الحديث. أما بالنسبة لأدوات الذكاء الاصطناعي الأقل انتشارًا مثل تطبيقات إنشاء الصور ومساعدات الاجتماعات ومحرري الفيديو وغيرها من التطبيقات المتخصصة، فإنها لا تزال غير موجهة لتلبية الاحتياجات اليومية لمعظم الأفراد. ونتيجة لذلك، ستشهد هذه الأدوات اعتمادًا أكثر تخصصًا يتم خلاله التركيز على المهام الإبداعية أو التشغيلية المحددة، على عكس الاستخدامات الأساسية المذكورة التي أصبحت بالفعل جزءًا لا يتجزأ من سير العمل اليومي. وتشمل بعض أفضل ممارسات الأمان المطبقة في الذكاء الاصطناعي التوليدي ما يلي: - فهم استخدامات الذكاء الاصطناعي التوليدي والتحكم بالجوانب المسموح بها، وتنفيذ إدارة مشروطة لإمكانية الوصول من أجل تقييد استخدام منصات وتطبيقات ومزايا إضافية للذكاء الاصطناعي التوليدي وذلك وفقًا للمستخدمين و/أو المجموعات، والموقع الجغرافي، ومخاطر التطبيق، والأجهزة المتوافقة، والمبررات التجارية المشروعة. - حماية البيانات الحساسة من الوصول غير المصرح به ومخاطر التسريب، وتفعيل الفحص الآني للمحتوى مع فرض تطبيق سياسات مركزية في كامل البنية التحتية، وضمان أمن البيانات بهدف المساعدة في منع الوصول غير المصرح به وإمكانية تسريب البيانات الحساسة. - حماية المؤسسات من التهديدات السيبرانية الحديثة، المعززة بالذكاء الاصطناعي، وتطبيق إطار أمن بيانات قائم على مبدأ "الثقة الصفرية" (Zero Trust) من أجل الكشف عن البرمجيات الضارة والتهديدات المعقدة والمتخفية والمراوغة والتي قد تكون مدرجة داخل الإجابات التي يقدمها الذكاء الاصطناعي التوليدي وحظرها. اقرأ أيضًا | هلوسة الذكاءالاصطناعي | ChatGPT يواجه انتقادات بسبب زيادة الأخطاء