تشهد منصة ChatGPT من Openai اضطرابات في الخدمة التي بدأت في الساعات الأولى من يوم الثلاثاء ، مما يؤثر على المستخدمين عبر قارات متعددة. أثر انقطاع الانقطاع على الوصول إلى chatgpt ، وأداة Sora text to-video AI ، وواجهة برمجة التطبيقات المرتبطة بها.
بدأت تقارير المشكلات في الظهور على Downdetector حوالي الساعة 7 صباحًا بالتوقيت العالمي ، على الرغم من أن Openai لم يعترف بالمشكلات علنًا حتى الساعة 9 صباحًا ، عبر صفحة الويب . في ذلك الوقت ، أكدت الشركة "معدلات الخطأ المرتفعة والكمون" في العديد من الخدمات ، قائلة إنها "تستمر في التحقيق" في الأمر.
بحلول الساعة 11 صباحًا ، أصدر Openai تحديثًا يوضح أن معدلات الخطأ المرتفعة كانت مرتبطة في الغالب بـ 14 واجهات برمجة التطبيقات ، و 4 inci dent s في Sora ، و 21 مكونًا من chatgpt . وصفت الشركة تعطيل الخدمة بأنها "انقطاع جزئي".
لا يزال ChatGpt يستجيب لبعض المستخدمين
تم استقبال المستخدمين المتأثرين الذين يحاولون التفاعل مع ChatGPT مع رسالة الخطأ: "هم ... يبدو أن هناك خطأ ما ، كما شاركه العديد من مستخدمي وسائل التواصل الاجتماعي.
على الرغم من أن بعض المشتركين أبلغوا عن أداء بطيء وتأخير كبير في توليد استجابات chatbot ، قال آخرون إن الخدمة تعمل بشكل طبيعي لهم.
وفقًا لمقاييس tracKing Sants ، تم تسجيل أكثر من 1000 شكوى في المملكة المتحدة وحدها ، حيث تم الإبلاغ عن ما يقرب من 500 في الولايات المتحدة خلال ساعات من التقارير الأولية.
تضمنت حوالي 90 ٪ من هذه التقارير مشكلات مع إصدار الويب من ChatGPT ، في حين تمثل تطبيقات الهاتف المحمول و API أقل من 10 ٪ من الشكاوى. أبلغ بعض المستخدمين أيضًا عن مشاكل في وظائف تسجيل الدخول واتصال API.
في عام 2025 ، كان هناك ثلاثةdentرئيسي من انقطاع Chatgpt. في وقت سابق من شهر يناير ، أثرت انقطاع جزئي على قدرة ChatGpt على إنشاء محتوى الصورة عبر Dall · E وبطء استجابات GPT-4 ، ولكن تم حلها في غضون ساعات.
حدثتdent كبيرة أخرى في أواخر أبريل عندما ذهب كل من تطبيقات Web و API في ChatGPT على الإنترنت بشكل متقطع على مدار يومين. في ذلك الوقت ، استشهد Openai بقضايا مع مزود السحابة الخاص به ، لكنه لم يقدم أي تفسير عام إضافي يتجاوز تأكيد تدهور الخدمة على صفحة الحالة الخاصة به.
مشكلات الأداء بعد بدء تشغيل ميزة AVM وترجمة
يأتي انقطاع انقطاع في وقت يتم فيه طرح Openai ترقيات إلى ميزة Mode Mode (AVM) المتقدمة (AVM) في ChatGPT للمشتركين المدفوعين.
بيانها الأخير ، ادعت شركة الذكاء الاصطناعى أن الميزات الجديدة لها تفاعلات طبيعية تشبه الإنسان من خلال الصوت وتقدم ترجمة الكلام في الوقت الفعلي بين لغات متعددة دون انقطاع.
يتم تضمين التحسينات على نموذج GPT-4O من Openai ، وهو نظام متعدد الوسائط قادرًا على كل من فهم وتوليد الصوت.
وفقًا لمادة 7 يونيو ، 2025 ، يمكن للمستخدمين الآن توجيه الواجهة الصوتية الخاصة بـ ChatGPT للترجمة بين اللغات ، وسوف يستمر في القيام بذلك في الوقت الفعلي حتى توجيه خلاف ذلك.
أظهر Openai لأول مرة ترجمة الكلام الحية في مايو 2024 وتابعها مع تقنية التفاعل الصوتي الصادرة في سبتمبر من نفس العام.
"API RealTime API" الجديد ، الذي يسمح للمطورين بدمج وظائف الكلام إلى الكلام في تطبيقاتهم ، والتي ظهرت لأول مرة في أكتوبر 2024 ، وتم إضافة خيارات صوتية إضافية في أبريل 2025.
"هذا يغير كل شيء إذا كنت مسافرًا إلى الخارج. يمكن لـ ChatGPT الآن البقاء في وضع الترجمة لا يلزم إعادة تعيينه ، فقط تحدث. يبدو الصوت الجديد أكثر إنسانية. المزيد من العاطفة ، وتيرة أفضل. إنه أمر جيد للغاية" ، يعتبر مستخدم واحد على منصة Social X.
ومع ذلك ، في كل تقارير من الاختبار المبكر للميزة ، هناك بعض المشكلات الجودة. اعترفت الشركة بأن المستخدمين قد يواجهون تناقضات عرضية في إخراج الصوت ، مثل النغمة والمخالفات في الملعب ، اعتمادًا على الصوت المحدد.
" نتوقع تحسين اتساق الصوت مع مرور الوقت " ، صرحت Openai في ملاحظات إصدارها. وأوضح أيضًا أن المشكلات ملحوظة مع بعض خيارات الصوت وقد تؤثر على تجربة المستخدم في الترجمات الحية أو الهواتف التي تستخدم دعم الوصول.
سلك الفرق الرئيسي : تستخدم مشاريع التشفير السرية للأداة للحصول على تغطية إعلامية مضمونة