آخر الأخبار
مختارة خصيصاً لك
أسبوعي
ابقَ في القمة

أفضل المعلومات حول العملات الرقمية تصلك مباشرة إلى بريدك الإلكتروني.

تتعاون io.net مع شبكة Phala Network للنهوض بالذكاء الاصطناعي اللامركزي والحوسبة الآمنة 

بقلمميلان يانديكميلان يانديك
قراءة لمدة دقيقتين

في هذا المنشور:

  • تعاونت io.net، وهي شبكة سحابية لوحدات معالجة الرسوميات، مع شبكة Phala Network لإحداث ثورة في مجال الذكاء الاصطناعي اللامركزي والحوسبة الآمنة.
  • سيعمل التحالف الاستراتيجي على تزويد شركة Phala Network بأجهزة GPU من خلال IO Cloud، شبكة السحابة التابعة لـ io.net.
  • قامت شبكة Phala ببناء بنية تحتية لـ 40000 عقدة وحدة معالجة مركزية TEE (بيئة التنفيذ الموثوقة) منذ شبكتها الرئيسية في عام 2021.

في بيان صدر في 26 سبتمبر، أعلنت شبكة io.net السحابية لوحدات معالجة الرسومات عن تعاونها الاستراتيجي مع شبكة Phala لتطوير الذكاء الاصطناعي اللامركزي وتأمين الحوسبة. وستُجهّز Phala بأجهزة وحدة معالجة الرسومات من خلال شبكة io.net السحابية، IO Cloud، لتوسيع قدراتها في مجال الذكاء الاصطناعي اللامركزي.   

وفقًا للبيان، ستوفر قدرة Phala المُحسّنة على دعم عُقد وحدة المعالجة المركزية TE بيئةً وبنيةً تحتيةً ضروريتين لازدهار التطبيقات اللامركزية المعقدة حسابيًا. تعتمد شبكة Phala حاليًا على وحدات معالجة الرسومات Nvidia H100 وH200 لتشغيل تقنية TEE الخاصة بها، لكن الشراكة مع io.net ستضمن وصول Phala إلى "وحدات معالجة الرسومات الأساسية التي شكلت حجر الأساس لنظامها البيئي اللامركزي للذكاء الاصطناعي".

تدعم خدمة IO Cloud من io.net إمكانية الوصول إلى وحدة معالجة الرسومات (GPU) عند الطلب من Phala

أوضح بيان io.net أن IO Cloud ستُمكّن Phala من نشر وإدارة مجموعات وحدات معالجة الرسومات اللامركزية عند الطلب. وتستطيع شبكة Phala الوصول إلى موارد قوية لوحدات معالجة الرسومات دون الحاجة إلى الاستثمار في أجهزة باهظة الثمن أو إدارة بنية تحتية معقدة.

وفقًا للبيان، أتاحت IO Cloud الوصول إلى وحدات معالجة الرسومات (GPU) لمطوري ومهندسي التعلم الآلي، من خلال توفير تجربة سحابية تُسهّل الوصول إلى الحوسبة المتقدمة، وتُخفّض تكلفتها بنسبة تصل إلى 90% مقارنةً بخدمات الحوسبة السحابية التقليدية. وستُوحّد Phala وio.net جهودهما في معايرة الأداء، والبحث، واختبار أحدث التقنيات، بدءًا من بطاقتي Nvidia H100 وH200.   

وفقًا للبيان، كان الشركاء حريصين على استكشاف نشرtracوكلاء الذكاء الاصطناعي المستقلين ووكلاء الذكاء الاصطناعي من Phala Network ودمج أجهزة TEE والعاملين في Phala في شبكة GPU الخاصة بـ IO.

تضع شركة Phala معايير جديدة لوحدات معالجة الرسومات الممكّنة بتقنية TEE

كما ورد في البيان الصحفي، أجرت شبكة Phala Network تقييمًا معياريًا لأولى وحدات معالجة الرسوميات (GPUs) المُمكّنة بتقنية TEE في أغسطس لوضع معايير جديدة للذكاء الاصطناعي اللامركزي. وضمنت الشراكة مع io.net معالجة أحمال عمل الذكاء الاصطناعي الأساسية بأمان مع حماية تشفيرية متقدمة، وذلك من خلال توسيع نطاق تقنية TEE لتشمل مُسرّعات الذكاء الاصطناعي مثل وحدات معالجة الرسوميات، وفقًا للبيان.   

أوضح البيان أن طبقة أمان Phala ستُعزز بشكل أكبر باستخدام التمهيد الآمن ووحدات معالجة الرسومات Nvidia H100 Tensor Core المزودة بذاكرة مشفرة. بالإضافة إلى ذلك، ستتمكن Phala من توفير قوة حوسبية لتشغيل نماذج الذكاء الاصطناعي الكبيرة مثل Microsoft Phi وLLaMa 3 وتدريبها، وذلك من خلال الوصول إلى IO Cloud لوحدات معالجة الرسومات Nvidia H100 وH200.

وفقًا للبيان، قامت شبكة فالا ببناء بنية تحتية قوية تضم 40,000 عقدة وحدة معالجة مركزية TEE منذ إطلاق شبكتها الرئيسية عام 2021، وذلك لتمكين مطوري Web3 من نقل العمليات الحسابية المعقدة بسلاسة منtracالذكية إلى شبكة فالا الآمنة خارج السلسلة. وأكد البيان أن هذه العقد كانت أساسية في الحفاظ على أمن وخصوصية البيانات. وأضاف البيان أنها قدمت أيضًا أوراكل وإثباتات قابلة للتحقق لدعم تطبيقات Web3 المتنوعة، بدءًا من الوكلاء المعتمدين على الذكاء الاصطناعي ووصولًا إلى تطبيقات التواصل الاجتماعي.        

شارك هذا المقال

إخلاء مسؤولية. المعلومات المقدمة لا تُعدّ، ولا يُقصد بها أن تكون، نصيحة مالية؛ بل هي لأغراض إعلامية عامة فقط. قد لا تكون المعلومات مُحدّثة، ويجب على القراء بذل العناية الواجبة وتحمّل مسؤولية تصرفاتهم. روابط مواقع الطرف الثالث هي لتسهيل الأمر على القارئ أو المستخدم أو المتصفح فقط؛ Cryptopolitan وأعضاؤها بمحتوى مواقع الطرف الثالث أو تُؤيده.

المزيد من الأخبار
مكثفة في المشفرة
دورة