تشعر واحدة من كل ثلاث شركات في المملكة المتحدة بالقلق بشأن سلامة بياناتها عند استخدام نماذج اللغة الكبيرة (LLMs) لأنها تطورت من مساعدين يستجيبون للأوامر أو الأسئلة إلى أنظمةdent تعمل دون تدخل بشري مستمر.
ونتيجة لذلك، تتردد هذه المنظمات في دمج وكلاء الذكاء الاصطناعي في أنظمة التشغيل الخاصة بها لأنها تخشى فقدان السيطرة على بياناتها وأمنها لصالح الآلات التي يمكنها "التفكير بنفسها".
تتخذ الحكومة البريطانية خطوات لمواجهة هذه التحديات. فقد أعلن وزير شؤون مجلس الوزراء، بات مكفادين، رفع السرية عن تقييم استخباراتي يشير إلى أن الذكاء الاصطناعي سيزيد من حدة التهديدات السيبرانية في السنوات المقبلة.
في عام 2024، تلقى المركز الوطني للأمن السيبراني ما يقارب 2000 بلاغ عن هجمات إلكترونية، صُنّف نحو 90 منها بأنها "خطيرة"، و12 منها بأنها "شديدة الخطورة". ويمثل هذا ثلاثة أضعاف عدد الهجمات الخطيرة مقارنةً بالعام السابق.
أثارت الشركات البريطانية مخاوف بشأن أمن البيانات في برامج الماجستير في القانون
يجب على الشركات في المملكة المتحدة الامتثال للوائح صارمة تحمي بيانات الأشخاص وتمنع إساءة استخدامها، مثل قانون حماية البيانات واللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR).
الشركات التي تنتهك هذه القوانين تُعرّض نفسها للمساءلة القانونية والإضرار بسمعتها، لذا فهي تُعيد النظر في استراتيجياتها المتعلقة بإدارة الأصول القانونية. قد يكشف الذكاء الاصطناعي معلومات خاصة أو يُنتج نتائج مُضللة دون إشراف بشري دقيق أو توجيه سليم.
في البداية، كانت أدوات الذكاء الاصطناعي، مثل برامج الدردشة الآلية، تقدم إجابات ثابتة، بينما كانت منظمات الحرارة الذكية تُغير درجة الحرارة فقط باتباع قواعد بسيطة دون تفكير أو تعلم من بيانات جديدة أو إجراءات سابقة أو نتائج قراراتها. أما اليوم، فتستخدم أنظمة الذكاء الاصطناعي نماذج التعلم من المستوى الثاني للتعلم من البيانات، وتغيير إجراءاتها بناءً على معلومات جديدة، وحل المشكلات المختلفة بالتفكير المنطقي كالبشر.
لكن هذا ليس سوى جزء بسيط من مشكلة أكبر بكثير، إذ يمكن للمستخدمين أيضًا تكليف النظام بمهمة ما، فيقوم النظام بتقسيمها إلى أنشطة أصغر، ومعالجة كل منها على حدة، ثم تقييم النتائج. علاوة على ذلك، يمكن لبعض الأنظمة أن تتعاون لإنجاز مهمة معقدة، حيث يعمل أحدها على المهمة بينما يقوم الآخر بمراجعة النتائج لتحسينها.
على الرغم من أن هذا النمو يُساعد الشركات على أتمتة عملياتها ويُقلل الوقت الذي كانت تستغرقه الفرق البشرية، إلا أنه يُشكل تهديدًا أيضًا، فكلما زادت القرارات التي تتخذها هذه الأنظمة الذكية بشكل مستقل، كلما ازدادت صعوبة فهمنا الكامل لما تفعله، أو التنبؤ به، أو التحكم فيه. وبالمثل، يُمكن أن تتفاقم عواقب أخطائها بشكل كبير لأن هذه الأنظمة الذكية تعمل دون انتظار أي تدخل بشري.
تتبنى الشركات وكلاء الذكاء الاصطناعي بحذر في مختلف الأقسام
تستخدم العديد من الشركات في المملكة المتحدة وكلاء الذكاء الاصطناعي في عملياتها اليومية، حيث تقوم أقسام مثل خدمة العملاء والموارد البشرية والتسويق باختبار الأدوات ببطء ومراقبتها بدقة.
ومن الأمثلة التجارية الجيدة شركة Pets at Home، التي قامت ببناء وكيل ذكاء اصطناعي لموظفيها البيطريين لتقديم إجابات سريعة ودعم أثناء فحوصات الحيوانات الأليفة، مما يدل على مدى فائدة وكلاء الذكاء الاصطناعي في الأدوار الصغيرة في الوظائف الحقيقية.
حالياً، تحتاج معظم أنظمة الذكاء الاصطناعي الآلية إلى توجيه بشري، ومراجعة عملها، وتصحيح أخطائها، لأنها غير جاهزة للاستغناء عن البشر تماماً دون إشراف. مع ذلك، قد يتطلب المستقبل من الشركات اتخاذ قرارات صعبة تُمكّنها من دمج أنظمة الذكاء الاصطناعي الآلية في أنظمتها، مع الحفاظ على السيطرة عليها في الوقت نفسه.

