- تقوم شركة OpenAI بتدريب نظام ذكاء اصطناعي جديد ليحل محل GPT-4.
- سيسبق هذا النموذج لجنة السلامة والأمن بقيادة الرئيس التنفيذي سام ألتمان.
- تتعرض شركة OpenAI لضغوط لإثبات التزامها بالسلامة.
تُدرّب شركة OpenAI نظام ذكاء اصطناعي جديداً ليحل محل GPT-4، في إطار سعيها لاستعادة سمعتها. وسيسبق إطلاق هذا النموذج لجنةٌ معنيةٌ بالسلامة والأمن برئاسة الرئيس التنفيذي سام ألتمان وثلاثة أعضاء آخرين في مجلس الإدارة.
اقرأ أيضاً: هيئة مراقبة البيانات في الاتحاد الأوروبي: لا تزال خدمة ChatGPT تنشر معلومات مضللة
تتعرض الشركة التي تتخذ من سان فرانسيسكو مقراً لها لضغوط لإثبات التزامها بالسلامة. وقد كشف الباحثان في مجال المخاطر، جان ليك وغريتشن كروجر، اللذان استقالا مؤخراً، عن ثقافة السلامة الضعيفة على منصة X، المعروفة سابقاً باسم تويتر.
شركة OpenAI تدرب "نموذج الحدود التالية"
الشركة في منشور على مدونتها يوم الثلاثاء وقالت:
"بدأت شركة OpenAI مؤخرًا بتدريب نموذجها الرائد التالي، ونتوقع أن تنقلنا الأنظمة الناتجة إلى المستوى التالي من القدرات في طريقنا نحو الذكاء الاصطناعي العام (AGI)."
لم تُعلن شركة OpenAI عن موعد إطلاق خليفة GPT-4 أو عن قدراته. وقد اتخذت الشركة، التي تُقدّر قيمتها بـ 80 مليار دولار، خطوة رائدة بإطلاقها روبوت الدردشة الذكي الشهير ChatGPT، في وقتٍ تراجعت فيه شركاتٌ رائدةٌ مثل جوجل لتقييم المخاطر المتعلقة بسمعتها.
في حين أن OpenAI هي شركة رائدة في سباق الذكاء الاصطناعي التوليدي الذي تتنافس فيه بشدة شركات مثل Anthropic و GoogleوMicrosoft وغيرها، إلا أن الشركة لم تصمد دائمًا أمام التدقيق الأخلاقي.
في منشور أعلن فيه استقالته من OpenAI on X، كشف أن "ثقافة السلامة وعملياتها تراجعت خلال السنوات الماضية لصالح المنتجات البراقة".
كروجر كتب أن الشركة بحاجة إلى "بذل المزيد لتحسين الأمور الأساسية مثل عمليات صنع القرار، والمساءلة، والشفافية، وإنفاذ السياسات، والعناية التي نستخدم بها تقنياتنا الخاصة".
فرقة عمل تابعة للاتحاد الأوروبي شددت الانتقادات، حيث أفادت بأن ChatGPT، المنتج الرئيسي للشركة، لا يرقى إلى معايير الدقة الخاصة بها.

الشركة تروج لسلامة الذكاء الاصطناعي كنقطة بيع رئيسية
في غضون ذلك، واجه التحديث الأخير الذي أجرته شركة OpenAI على نموذج GPT-4 خلافًا حادًا على الفور، حيث اتهمت الممثلة سكارليت جوهانسون الشركة باستخدام صوتها دون إذن.
اقرأ أيضاً: شركة OpenAI تتخلى عن خدمة ChatGPT Voice بعد الجدل الدائر حول سكارليت جوهانسون
تتجه الشركة الآن نحو قطاعtracالملابس، حيث تُسوّق برنامجها القادم للذكاء الاصطناعي على أنه يرتكز على السلامة كنقطة بيع رئيسية. كما تحرص الشركة على أن ينظر إليها المنظمون على أنها تُطوّر ذكاءً اصطناعياً مسؤولاً. وأضافت OpenAI في منشورها على المدونة:
"بينما نفخر ببناء وإطلاق نماذج رائدة في الصناعة من حيث القدرات والسلامة، فإننا نرحب بنقاش قوي في هذه اللحظة المهمة."
سيترأس لجنة السلامة والأمن الجديدة كل من المديرين ألتمان، وبريت تايلور (رئيساً)، وآدم دانجيلو، ونيكول سيليغمان. كما سيضمّ أعضاء اللجنة رئيس قسم التأهب، ورئيس قسم أنظمة السلامة، ورئيس قسم علوم المحاذاة، ورئيس قسم الأمن، وكبير العلماء في الشركة.
وقالت OpenAI إن اللجنة ستعمل خلال الأشهر الثلاثة المقبلة على "تقييم وتطوير العمليات والضمانات" وتقديم تقرير إلى ثلاثة مديرين آخرين.
قامت الشركة بحل فريق السلامة التابع لها في وقت سابق من هذا الشهر بعد رحيل قائد الفريق والمؤسس المشارك لشركة OpenAI، إيليا سوتسكيفر.
تقرير Cryptopolitan بقلم جيفري جوجو
لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)















