باحث بارز في مجال سلامة الذكاء الاصطناعي يستقيل من شركة أنثروبيك بتحذير غامض

- أعلن مرينانك شارما، وهو باحث بارز في مجال السلامة من شركة أنثروبيك، استقالته من الشركة علنًا في وقت سابق من هذا الأسبوع، وأصدر تحذيرًا غامضًا بشأن الذكاء الاصطناعي مرتبطًا بحالة العالم
- تناولت رسالة استقالة شارما خلفيته، وعمله مع منظمة أنثروبيك، والمخاوف الفلسفية والهيكلية المحيطة بتطورات الذكاء الاصطناعي في عالم هش
- الخلاصة الأهم من رسالة شارما هي أن القدرة التنافسية الوطنية، وضغوط السوق، وتوقعات المستثمرين تعطي الأولوية بشكل طبيعي للنمو على حساب الأخلاقيات وتخفيف المخاطر بالنسبة لشركات الذكاء الاصطناعي
أعلن مرينانك شارما، الباحث الرئيسي في مجال السلامة في شركة أنثروبيك، استقالته من الشركة هذا الأسبوع في منشور على موقع X. ويبدو أن قرار شارما هذا مدفوع بمخاوفه بشأن الوضع الحالي للذكاء الاصطناعي والعالم
قاد مرينانك شارما فريق أبحاث الضمانات في شركة أنثروبيك، وهي شركة رائدة في مجال الذكاء الاصطناعي، ويُعتبر نموذجها اللغوي الضخم (LLM) المسمى كلود منافسًا قويًا لنموذج ChatGPT. وكان رحيل شارما مفاجئًا نوعًا ما، إذ لم يُطلق فريق أبحاث الضمانات رسميًا إلا في فبراير من العام الماضي. وكان تركيز الفريق الأساسي منصبًا على تحديدdentوالمساعدة في التخفيف من المخاطر المرتبطة بأنظمة الذكاء الاصطناعي التي تستخدمها أنثروبيك، مثل كلود.
أثار رحيل باحث بارز في مجال السلامة من إحدى أكبر شركات الذكاء الاصطناعي في الولايات المتحدة جدلاً واسعاً على مواقع التواصل الاجتماعي. ولعل أبرز ما جاء في رسالة الاستقالة هو تحذير شارما المبهم بأن "العالم في خطر". وعزا ذلك "ليس فقط إلى الذكاء الاصطناعي أو الأسلحة البيولوجية"، بل إلى "سلسلة من الأزمات المترابطة التي تتكشف في هذه اللحظة بالذات". وقد فسّر كثيرون هذا التحذير على أنه تحذير من المخاطر الوجودية المصاحبة لتطورات الذكاء الاصطناعي. وتُعدّ استقالة شارما جزءاً من اتجاه متزايد ومقلق لاستقالات موظفين بارزين في شركات الذكاء الاصطناعي مؤخراً.
تفسير رسالة استقالة شارما
بدأ مرينانك شارما رسالته بالحديث بإيجاز عن خلفيته ومصادر إلهامه، ولا سيما "استعداده لاتخاذ القرارات الصعبة والدفاع عن الحق". كما تحدث عن إسهاماته في منظمة أنثروبيك، بما في ذلك تطوير ونشر أنظمة دفاعية "للحد من مخاطر الإرهاب البيولوجي المدعوم بالذكاء الاصطناعي"، وكتابة إحدى أولى دراسات السلامة المتعلقة بالذكاء الاصطناعي. وكان مشروعه الأخير "فهم كيف يمكن لمساعدي الذكاء الاصطناعي أن يجعلونا أقل إنسانية أو يشوهوا إنسانيتنا"
مع ذلك، كان الجزء الأكثر إثارة للقلق في رسالته هو الفقرة الثالثة. فبينما لم يتهم شركة أنثروبيك مباشرةً بأي خطأ، ولم يصرح صراحةً بأن الذكاء الاصطناعي سيقضي علينا جميعًا، إلا أنه استخدم لغةً فلسفيةً كثيرةً لتبرير استقالته. فقد ذكر أنه "يبدو أننا نقترب من عتبةٍ يجب أن تنمو فيها حكمتنا بقدر ما تنمو قدرتنا على التأثير في العالم، وإلا سنواجه العواقب". ثم أضاف: "لقد رأيت مرارًا وتكرارًا مدى صعوبة أن نجعل قيمنا تحكم أفعالنا حقًا". كما وصف العالم بأنه في خطرٍ بسبب سلسلةٍ من الأزمات المترابطة، والتي وصفها في حاشيةٍ بأنها "أزمةٌ متعددة" تستند إلى "أزمةٍ شاملة"
يشير هذا الكلام إلى أن رحيله عن شركة أنثروبيك كان مدفوعًا باختلاف فلسفي أكثر منه بأي نوع من الخلافات الداخلية في الشركة. وبوصفه الوضع الراهن بأنه "أزمة متعددة الأوجه" مدعومة بـ"أزمة شاملة"، يبدو أن شارما يُشير إلى مشكلة هيكلية أكبر بكثير تواجه المجتمع، وبالتالي تطوير الذكاء الاصطناعي. فالتكنولوجيا تتقدم بوتيرة أسرع من الحكمة الجماعية، والأنظمة والقوى الحالية التي تُدير وتُؤثر في تطويرها غير مُجهزة بالشكل الأمثل للقيام بذلك في ظل الوضع الراهن للعالم.
الاستنتاج الأهم من رسالة شارما
إنّ الرسالة الأهمّ التي يحملها خطاب استقالة شارما متعددة الأوجه وذات طابع وجودي. فمن جهة، يبدو أنه يعتقد بوجود مشكلة جوهرية في كيفية تعامل شركات التكنولوجيا مع تسارع تطور الذكاء الاصطناعي ضمن نظام تنافسي. إذ تتسابق القوى العالمية في سباق محموم للتفوق على بعضها البعض في مجال الذكاء الاصطناعي وغيره من التطورات التكنولوجية، ومن المتوقع أن يصل الإنفاق العالمي على التكنولوجيا إلى 5.6 تريليون دولار أمريكي في عام 2026.وهذا يعني أن شركات الذكاء الاصطناعي لا تقتصر مهمتها على الابتكار وتطوير المنتجات فحسب، بل تُعدّ عنصراً حاسماً في الصراع الجيوسياسي. إضافةً إلى ذلك، تقع على عاتق هذه الشركات مسؤولية ائتمانية لتحقيق أداء متميز للمساهمين، مما يحفزها على التفوق على منافسيها في التقدم التكنولوجي.
يُعزز هذا بيئةً يجب فيها أن تتوافق مبادئ وإجراءات السلامة مع ضغوط السوق، والقدرة التنافسية الوطنية، وتوقعات المستثمرين. ومع ذلك، فمع التوسع السريع لشركات الذكاء الاصطناعي وتطوير قدراتها، يتعين عليهاdentالمخاطر المصاحبة لها وفهمها والتخفيف من حدتها. ويبدو أن المشكلة التي يُعالجها شارما هي أن النظام الحالي الذي تعمل فيه شركات الذكاء الاصطناعي يُعطي الأولوية للنمو على حساب السلامة والاعتبارات الأخلاقية. إن تداعيات هذه الديناميكية عميقة وجوديًا وتُثير قلقًا بالغًا. فشخصٌ مثل شارما، الذي يبدو أنه يتمتع بنزاهة عالية، لم يستطع ببساطة الاستمرار في العمل ضمن هذا النظام دون التنازل عن قيمه، مما دفعه إلى الانسحاب منه تمامًا.
أذكى العقول في عالم العملات الرقمية يتابعون نشرتنا الإخبارية بالفعل. هل ترغب بالانضمام إليهم؟ انضم إليهم.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)














