تظهر دراسة بحثية جديدة أجرتها فرق في المملكة المتحدة وإيطاليا أن مساعدي الذكاء الاصطناعي المدمجين في متصفحات الويب، بما في ذلك ChatGPT، يجمعون معلومات شخصية حساسة من المواقع التي يفترض الكثير من الناس أنها خاصة.
قام الباحثون بفحص عشرة متصفحات وإضافات شائعة تدعم الذكاء الاصطناعي، من بينها ChatGPT من OpenAI، وMicrosoft Copilot، وMerlin AI لمتصفح Google Chrome، ووضعوها في اختبارات على مواقع الويب المفتوحة والبوابات المحمية بكلمة مرور مثل نظام السجلات الصحية للجامعة.
المواقع الخاصة تعرض المعلومات لـ ChatGPT والأدوات المشابهة
كانت نتائج الدراسة صادمة. فقد كشفت أن تسعًا من أصل عشر أدوات أخذت وأرسلت بيانات شخصية، بما في ذلك السجلات الطبية، والتفاصيل المصرفية، والسجلات الأكاديمية، وحتى أرقام الضمان الاجتماعي.
كانت Perplexity AI هي الأداة الوحيدة التي لم يبدو أنها تجمع مثل هذه البيانات.
وقالت آنا ماريا ماندالاري، المؤلفة الرئيسية للدراسة وأستاذة مساعدة في جامعة لندن: "يتمتع هؤلاء المساعدون بمستوى من الوصول إلى أنشطتنا عبر الإنترنت لا يشبه أي شيء رأيناه من قبل".
"إنهم يجعلون الأمور أسرع وأسهل، لكن أدلتنا تظهر أن هذا يأتي في بعض الأحيان على حساب الخصوصية، وفي بعض الحالات، قد ينتهك القانون."
ماندالاري.
ولإجراء الاختبارات، قام الفريق بمحاكاة التصفح اليومي، والتسوق عبر الإنترنت، والتحقق من النتائج الطبية، وتسجيل الدخول إلى الحسابات المصرفية، ثم طرح على المساعدين أسئلة متابعة مثل: ما هو سبب الزيارة الطبية الأخيرة؟
ومن خلال اعتراض وفك تشفير البيانات التي تنتقل بين متصفح المستخدم وخوادم شركة الذكاء الاصطناعي وأجهزة tracالتابعة لجهات خارجية، وجد الباحثون أن بعض المساعدين ما زالوا يجمعون وينقلون محتوى الصفحة الكاملة من مواقع آمنة من المفترض.
أما بالنسبة لـ Merlin، فقد اكتشف الباحثون مزيجًا من البيانات الحساسة التي تشمل السجلات الصحية، والتفاصيل المصرفية، ونتائج الامتحانات، وأرقام الضمان الاجتماعي لدافعي الضرائب.
شوهد مساعد الذكاء الاصطناعي الخاص بشركة Peers Sider وTinaMind وهما يرسلان تنبيهات للمستخدمين إلى Google Analytics، بالإضافة إلىdentمعلومات أساسية مثل عناوين IP. يمكن استخدام هذه البيانات للإعلانات الموجهة tracالمواقع.
وبحسب الباحثين، فإن مساعدين آخرين مثل كوبيلوت ومونيكا احتفظوا بسجلات الدردشة الكاملة في المتصفح بهدوء حتى بعد انتهاء الجلسات.
عند الوصول إليها عبر تكاملات معينة للمتصفح، قامت ChatGPT التي أنشأتها OpenAI بإنشاء ملفات تعريف للمستخدمين بناءً على أعمارهم ومستوى دخلهم وجنسهم واهتماماتهم، ثم قامت بتخصيص إجاباتها وفقًا لذلك.
وحذر ماندالاري قائلاً: "ببساطة لا توجد طريقة واضحة للمستخدمين لمعرفة أين تنتهي هذه المعلومات بمجرد جمعها".
، الرئيس التنفيذي لشركة OpenAI، سام ألتمان المستخدمين من مخاوف تتعلق بالخصوصية، قائلاً إنه ينبغي عليهم توخي الحذر عند استخدام روبوتات الدردشة مثل ChatGPT لأغراض معينة، لأنها لا تحمل بعض ضمانات الخصوصية مثل تلك الموجودة مع طبيب أو محامٍ حقيقي، على سبيل المثال.
هل يمكن لأدوات الذكاء الاصطناعي أن تنتهك القوانين؟
أُجري البحث في الولايات المتحدة، لكن الفريق خلص إلى أن بعض مساعدي الذكاء الاصطناعي يُحتمل أن يكونوا قد انتهكوا قوانين الخصوصية الأمريكية والأوروبية. في الولايات المتحدة، بدا أن بعض الحالات انتهكت قواعد حماية المعلومات الطبية، بينما في الاتحاد الأوروبي، أشارت النتائج إلى انتهاكات محتملة للائحة العامة لحماية البيانات (GDPR)، التي تفرض قيودًا صارمة على تخزين البيانات الشخصية ومشاركتها.
حتى عندما تنشر الشركات إشعارات الخصوصية، قد تكون التفاصيل الدقيقة مُفاجئة. على سبيل المثال، تُدرج سياسة ميرلين للاتحاد الأوروبي والمملكة المتحدة الأسماء، وتفاصيل الاتصال، وبياناتdentتسجيل الدخول، وسجلات المعاملات، ومعلومات الدفع، وأي بيانات مكتوبة كبيانات قد تجمعها. وتنص على إمكانية استخدام هذه البيانات لأغراض التخصيص، أو دعم العملاء، أو الامتثال القانوني.
يُفصح سايدر عن معلومات مماثلة، مُضيفًا أنه يُمكن تحليل بيانات المستخدمين للحصول على "رؤى" أو للمساعدة في تطوير خدمات جديدة. ويُشير إلى جوجل، وكلاودفلير، ومايكروسوفت كجهات مُحتملة لاستلام البيانات، مع التأكيد على التزام الشركاءtracلحماية المعلومات الشخصية.
وتؤكد شروط OpenAI الخاصة أن البيانات من مستخدمي المملكة المتحدة والاتحاد الأوروبي يتم تخزينها خارج تلك المناطق، على الرغم من أن الشركة تقول إن حقوق المستخدم غير متأثرة.
قالت: "تُسوَّق هذه المنتجات على أنها تُسهِّل استخدام الإنترنت وتُحسِّنه. لكن ما يحدث في الخفاء غالبًا ما يكون تسجيلًا مُفصَّلًا لحياتك الخاصة على الإنترنت".
ومع تشديد الجهات التنظيمية لقواعد حماية البيانات وتسارع شركات التكنولوجيا إلى دمج الذكاء الاصطناعي في كل ركن من أركان الإنترنت، فمن المرجح أن يزداد التدقيق في هذه الأدوات.
في الوقت الحالي، يُوصي الباحثون بالحذر. فبينما تجنّبت Perplexity AI مخاطر الخصوصية في اختباراتها، لم تفعل ذلك معظم الأنظمة الأخرى. يقول ماندالاري: "إذا سمحتَ لذكاء اصطناعي برؤية كل ما تفعله على الإنترنت، فعليك افتراض أن هذه المعلومات تُخزّن في مكان ما، بطريقة ما، وربما تُشارك حتى".

