بدأت أصوات التحذير تتعالى من المخاطر التي تنطوي عليها الاستخدامات اليومية لأدوات الذكاء الاصطناعي التوليدي، حيث باتت المعلومات الحساسة التي يدرجها المستخدمون تشكل تهديداً مباشراً لأمن الشركات وخصوصية الأفراد، في حال وقعت في الأيدي الخطأ.
تقرير حديث صادر عن شركة “هارمونيك” كشف أن 8.5 في المائة من طلبات الموظفين إلى منصات الذكاء الاصطناعي مثل ChatGPT وCopilot، تضمنت بيانات حساسة، أبرزها معلومات متعلقة بالفوترة وبيانات المصادقة الخاصة بالعملاء.
ويحذر التقرير من أن الانتشار السريع لأدوات الذكاء الاصطناعي التوليدي لم يواكبه وعي كافٍ بالمخاطر الأمنية المصاحبة له، سواء من قبل المستخدمين أو من قبل المنظمات. فقد أصبح تسرب البيانات، وإن بشكل غير مقصود، من أكثر التهديدات شيوعاً في هذا السياق.
وتعليقاً على هذه المعطيات، قالت آنا كولارد، نائبة الرئيس الأول لاستراتيجية المحتوى والتوعية بشركة KnowBe4 Africa، إن الكثير من المستخدمين لا يدركون خطورة المعلومات التي يشاركونها مع الذكاء الاصطناعي، مضيفة: “ليس الأمر متعلقاً فقط بالأسماء أو عناوين البريد الإلكتروني؛ بل قد يصل الأمر إلى مشاركة خطط الأداء، وسجلات العملاء، وتوقعات العمل، وأحياناً استراتيجيات داخلية حساسة.”
وأشارت كولارد إلى أن سهولة التفاعل مع الذكاء الاصطنا-عي وودّيّته الظاهرة تشجع المستخدمين على الكشف عن تفاصيل قد لا يبوحون بها في بيئة عمل تقليدية، كالإحباطات المهنية أو أدوات العمل أو حتى ديناميكيات الفريق، ما يجعل هذه المعلومات عرضة للاستغلال من قبل مجرمي الإنترنت ووسطاء البيانات، الذين قد يستخدمونها في حملات تصيد أو سرقة هوية أو هندسة اجتماعية متقدمة.
وأضافت أن ضعف الضوابط الأمنية على بعض المنصات، حتى في غياب نية خبيثة من المطورين، كافٍ لوقوع تسريبات كارثية. مشيرة إلى أن “الموظفين الذين يزودون أدوات الذكاء الاصطناعي ببيانات الشركة، قد يعرضون مؤسساتهم بالكامل للخطر، بما في ذلك معلومات العملاء، والعمليات التشغيلية، وخطط المنتجات، وهي بيانات تهم المنافسين والمهاجمين والجهات الرقابية على حد سواء.”
ولتفادي هذه الانزلاقات، توصي الخبيرة بضرورة تدريب الموظفين على الاستخدام الآمن لأدوات الذكاء الاصطنا-عي، ووضع حدود واضحة لما يمكن مشاركته. كما شددت على ضرورة تنفيذ ضمانات تقنية حقيقية، تتجاوز السياسات الورقية، وتقيّد الوصول إلى هذه الأدوات أو تحصر استخدامها ضمن منصات خاضعة لموافقة المؤسسة.
كما دعت كولارد إلى اعتماد مبدأ “الخصوصية حسب التصميم” عند تبني الذكاء الاصطناعي داخل الشركات، من خلال استخدام منصات تحترم الخصوصية على مستوى المؤسسات، وتثبيت امتدادات متصفح تمنع إدخال البيانات الحساسة.
وفي السياق ذاته، شددت على ضرورة مواءمة استخدام الذكاء الاصطناعي مع قوانين حماية المعطيات والمعايير الأخلاقية، داعية إلى اعتماد المعيار الدولي ISO/IEC 42001، الذي يحدد ضوابط إنشاء وتحسين نظام إدارة الذكاء الاصطناعي (AIMS) داخل المؤسسات.
في ظل تزايد الاعتماد على الذكاء الاصطنا-عي التوليدي، يبدو أن التحدي الأكبر اليوم لا يكمن في قدرات هذه الأدوات، بل في كيفية استخدامها الآمن، بما يضمن حماية المعلومات وتفادي الانزلاق نحو تسريبات غير محسوبة العواقب.