KnowBe4
المصدر: KnowBe4 |

مطالبات خطيرة: كيف تسرب الذكاء الاصطناعي التوليدي أسرار الشركات

جوهانسبرغ، جنوب أفريقيا, 2025 يونيو 2/APO Group/ --

تحت سطح مخرجات الذكاء الاصطناعي التوليدي، يكمن محرك هائل غير منظم في الغالب مدعوم بالبيانات - بياناتك. وسواء كان ذلك من خلال مطالبات بريئة أو مشاركة زائدة معتادة، فإن المستخدمين يغذون هذه الآلات بمعلومات، إذا وقعت في الأيدي الخطأ، تصبح قنبلة موقوتة أمنية.

وجد تقرير حديث لهارمونيك أن 8.5٪ من مطالبات الموظفين لأدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وCopilot تضمنت بيانات حساسة - وعلى الأخص معلومات الفواتير والمصادقة الخاصة بالعملاء - مما يثير مخاطر أمنية والتزام وخصوصية خطيرة.

منذ ظهور ChatGPT لأول مرة في عام 2022، انفجر الذكاء الاصطناعي التوليدي في الشعبية والقيمة - متجاوزًا 25 مليار دولار في عام 2024 - لكن صعوده السريع يجلب مخاطر لا يزال العديد من المستخدمين والمنظمات يتجاهلونها.

تحذر آنا كولارد، نائب الرئيس الأول لاستراتيجية المحتوى والإنجيلي في KnowBe4 Africa، "أحد مخاطر الخصوصية عند استخدام منصات الذكاء الاصطناعي هو تسرب البيانات غير المقصود". "الكثير من الناس لا يدركون كمية المعلومات الحساسة التي يدخلونها."

بياناتك هي المطالبة الجديدة

لا يقتصر الأمر على الأسماء أو عناوين البريد الإلكتروني التي يتم جمعها. عندما يطلب موظف من مساعد الذكاء الاصطناعي التوليدي "إعادة كتابة هذا الاقتراح للعميل X" أو "اقتراح تحسينات لخطة الأداء الداخلية لدينا"، فقد يشاركون بيانات مملوكة أو سجلات عملاء أو حتى توقعات داخلية. إذا تم ذلك عبر منصات ذات سياسات خصوصية غامضة أو ضوابط أمنية ضعيفة، فقد يتم تخزين تلك البيانات أو معالجتها أو - في أسوأ السيناريوهات - الكشف عنها.

ولا تتوقف المخاطر عند هذا الحد. تقول كولارد: "نظرًا لأن الذكاء الاصطناعي التوليدي يبدو غير رسمي وودودًا، فإن الناس يتخلون عن حذرهم". "قد يكشفون عن أكثر بكثير مما يكشفون عنه في بيئة عمل تقليدية - اهتمامات وإحباطات وأدوات الشركة وحتى ديناميكيات الفريق."

بشكل إجمالي، يمكن تجميع هذه التفاصيل التي تبدو حميدة في ملفات تعريف مفصلة من قبل مجرمي الإنترنت أو وسطاء البيانات - مما يؤجج التصيد الاحتيالي المستهدف وسرقة الهوية والهندسة الاجتماعية المتطورة.

طفرة في المنصات المتخصصة، مجموعة من المخاطر الجديدة

مما يزيد الطين بلة هو الانتشار السريع لمنصات الذكاء الاصطناعي المتخصصة. أدوات لإنشاء نماذج للمنتجات أو منشورات اجتماعية أو أغاني أو سير ذاتية أو لغة قانونية تنبت بسرعة - تم تطوير العديد منها من قبل فرق صغيرة تستخدم نماذج أساسية مفتوحة المصدر. في حين أن هذه المنصات قد تكون رائعة في ما تفعله، فقد لا تقدم بنية أمنية محصنة مثل أدوات المؤسسات. تقول كولارد: "من غير المرجح أن تكون التطبيقات الأصغر قد تم اختبارها لانتهاكات الخصوصية في الحالات الهامشية أو خضعت لاختبارات اختراق وتدقيقات أمنية صارمة". "والعديد منها لديه سياسات استخدام بيانات مبهمة أو متساهلة."

حتى لو لم يكن لدى مبدعي التطبيق نية خبيثة، فإن الرقابة الضعيفة يمكن أن تؤدي إلى تسربات كبيرة. تحذر كولارد من أن بيانات المستخدم يمكن أن ينتهي بها المطاف في:

 قواعد بيانات وسيط بيانات طرف ثالث

 مجموعات تدريب الذكاء الاصطناعي دون موافقة

 أسواق مجرمي الإنترنت بعد الاختراق

في بعض الحالات، قد تكون التطبيقات نفسها واجهات لعمليات جمع البيانات.

من تجاوزات فردية إلى تعرض الشركات

لا تقتصر عواقب المشاركة الزائدة على الشخص الذي يكتب المطالبة. توضح كولارد: "عندما يغذي الموظفون معلومات سرية في أدوات الذكاء الاصطناعي التوليدي العامة، يمكنهم عن غير قصد فضح شركتهم بأكملها". "وهذا يشمل بيانات العملاء والعمليات الداخلية واستراتيجيات المنتج - أشياء سيهتم بها المنافسون أو المهاجمون أو الجهات التنظيمية بشدة."

في حين أن الذكاء الاصطناعي الظل غير المصرح به لا يزال مصدر قلق كبير، فإن صعود الذكاء الاصطناعي شبه الظل - الأدوات المدفوعة التي تتبناها وحدات الأعمال دون رقابة تكنولوجيا المعلومات - يزداد خطورة، حيث أن تطبيقات الذكاء الاصطناعي التوليدي ذات المستوى المجاني مثل ChatGPT مسؤولة عن 54٪ من تسربات البيانات الحساسة بسبب الترخيص المتساهل وعدم وجود ضوابط، وفقًا لتقرير هارمونيك.

إذًا، ما هو الحل؟

يبدأ التبني المسؤول بفهم المخاطر - وكبح الضجيج. تقول كولارد: "يجب على الشركات تدريب موظفيها على الأدوات التي يجوز استخدامها، وما هو آمن لإدخاله وما هو غير آمن". "ويجب عليهم تنفيذ ضمانات حقيقية - وليس مجرد سياسات على الورق.

"النظافة السيبرانية تشمل الآن النظافة الذكاء الاصطناعي."

"يجب أن يشمل ذلك تقييد الوصول إلى أدوات الذكاء الاصطناعي التوليدي دون رقابة أو السماح فقط بتلك التي وافقت عليها الشركة."

"تحتاج المنظمات إلى تبني نهج الخصوصية بالتصميم عندما يتعلق الأمر بتبني الذكاء الاصطناعي"، كما تقول. "يشمل ذلك استخدام منصات الذكاء الاصطناعي فقط مع ضوابط بيانات على مستوى المؤسسات ونشر امتدادات المتصفح التي تكتشف وتحظر إدخال البيانات الحساسة."

كضمانة إضافية، تعتقد أن برامج الامتثال الداخلية يجب أن تواءم استخدام الذكاء الاصطناعي مع كل من قوانين حماية البيانات والمعايير الأخلاقية. "أوصي بشدة الشركات بتبني ISO/IEC 42001، وهو معيار دولي يحدد متطلبات إنشاء وتنفيذ وصيانة وتحسين نظام إدارة الذكاء الاصطناعي (AIMS) باستمرار"، كما تحث.

في النهاية، من خلال موازنة مكاسب الإنتاجية مع الحاجة إلى خصوصية البيانات والحفاظ على ثقة العملاء، يمكن للشركات أن تنجح في تبني الذكاء الاصطناعي بشكل مسؤول.

بينما تتسابق الشركات لتبني هذه الأدوات لدفع الإنتاجية، فإن هذا التوازن - بين "واو" و "مهلًا" - لم يكن أكثر أهمية من أي وقت مضى

زعتها APO Group نيابة عن KnowBe4.