NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

DeepSeek stellt neue KI-Schlussfolgerungsmethode vor – inmitten der Vorfreude auf sein Modell der nächsten Generation

VonOwotunse AdebayoOwotunse Adebayo
3 Minuten Lesezeit
Deepseek stellt neue KI-basierte Schlussfolgerungsmethode vor – inmitten der Vorfreude auf sein Modell der nächsten Generation.
  • Das chinesische KI-Startup DeepSeek hat eine neue Methode für KI-basiertes Denken vorgestellt, während der Markt gespannt auf sein Modell der nächsten Generation wartet.
  • DeepSeek stellt eine neue Methode für KI-basiertes Denken vor, während sich das Unternehmen bezüglich einer möglichen Veröffentlichung des R2-Modells weiterhin bedeckt hält.
  • Das chinesische KI-Startup konzentrierte sich auf Forschung und Entwicklung und brachte die verbesserte Version seines V3-Modells auf den Markt.

Das chinesische KI-Startup DeepSeek hat eine neue Methode für logisches Denken vorgestellt, während der Markt weiterhin gespannt auf die Veröffentlichung seines Modells der nächsten Generation wartet. Berichten zufolge hat das Unternehmen einen neuartigen Ansatz präsentiert, der die Denkfähigkeit großer Sprachmodelle (LLMs) verbessern soll.

zufolge Berichten wurde diese Leistung in einer kürzlich veröffentlichten Studie durch die Zusammenarbeit von Forschern der Tsinghua-Universität und dem KI-Startup DeepSeek erzielt. Laut der Studie entwickelte DeepSeek eine Technik, die Methoden des generativen Belohnungsmodells (GRM) und der selbstprinzipiellen Optimierung kombiniert. Dieser duale Ansatz ermöglicht es LLMs, bessere und schnellere Ergebnisse auf allgemeine Anfragen zu liefern.

DeepSeek enthüllt neue KI-Schlussfolgerungsmethode

Laut den Forschern konnten die entwickelten DeepSeek-GRM-Modelle bestehende Methoden übertreffen und eine mittronöffentlichen Belohnungsmodellen vergleichbare Leistung erzielen. Belohnungsmodellierung ist ein Prozess, der einem LLM (Lernplattform) hilft, menschliche Präferenzen zu ermitteln. Die Forscher erwähnten, dass das KI-Startup die GRM-Modelle als Open Source veröffentlichen möchte, nannten aber noch keinen Zeitplan für die Entwicklung.

Die Veröffentlichung der wissenschaftlichen Studie folgt auf Spekulationen über die möglichen nächsten Schritte des Startups, das mit seinem DeepSeek V3-Basismodell und seinem R1-Logikmodell weltweite Aufmerksamkeit enjhat. Das Anfang des Jahres veröffentlichte R1-Modell erlangte damals Bekanntheit, nachdem es sich als leistungsfähiger als einige ältere Modelle, darunter OpenAIs erstes ChatGPT-Modell, erwiesen hatte.

Die Veröffentlichung des R1-Modells überraschte auch das Silicon Valley, da es sich um ein Open-Source-Modell handelte und die Entwicklung nur einen Bruchteil der Kosten anderer KI-Modelle verursachte. Obwohl das Interesse nun etwas nachzulassen scheint, haben konkurrierende Unternehmen in der KI-Branche bemerkenswerte Fortschritte erzielt, was zeigt, dass der Wettbewerb in diesem Sektor beispiellos ist.

Einem Reuters-Bericht vom letzten Monat zufolge könnte DeepSeek-2, der Nachfolger des weltweit gefeierten R1, in Entwicklung sein. Dem Bericht zufolge plant das Unternehmen möglicherweise eine Veröffentlichung gegen Ende dieses Monats, um von seinem wachsenden Profil in der KI-Branche zu profitieren. DeepSeek selbst schweigt sich jedoch weiterhin zum R2-Modell aus und gibt auf offiziellen Kanälen keine Auskunft. Berichten zufolge dementierte der Kundenservice die Gerüchte gegenüber Geschäftskunden.

Die Entwicklung des V3-Modells wird fortgesetzt

DeepSeek, mit Sitz in Hangzhou, wurde 2023 vom Unternehmer Liang Wenfeng gegründet und stand in den letzten Monaten aus gutem Grund weltweit im Rampenlicht. Das Unternehmen verzichtete jedoch auf öffentliche Mitteilungen und konzentrierte sich stattdessen voll und ganz auf Forschung und Entwicklung. Was DeepSeek für die KI-Branche zu bieten hat, bleibt abzuwarten, doch Gerüchten zufolge tüftelt das Unternehmen bereits an neuen Entwicklungen.

Letzten Monat kündigte das Unternehmen eine Neuentwicklung an und präsentierte sein verbessertes V3-Modell DeepSeek-V3-0324. Laut Hersteller bietet das verbesserte Modell „erweiterte Analysefunktionen, optimierte Frontend-Webentwicklung und verbesserte chinesische Schreibfähigkeiten“. Im Februar lagerte das Unternehmen fünf seiner Code-Repositories aus, um Entwicklern die Möglichkeit zu geben, die Softwareentwicklung zu überprüfen und dazu beizutragen. Das Startup betonte, es werde „mit voller Transparenz und aufrichtigen Fortschritten“ arbeiten

Im selben Monat veröffentlichte Liang eine technische Studie zu Native Sparse Attention, einer Methode zur Effizienzsteigerung von LLMs bei der Verarbeitung großer Datenmengen. Der 40-jährige Liang ist außerdem Gründer von High-Flyer Quant, dem Hedgefonds, der DeepSeeks Muttergesellschaft ist und die technischen Fortschritte des KI-Startups finanziell unterstützt hat. Ende Februar nahm der Unternehmer an einem Symposium für Technologieunternehmer teil, das vom chinesischen Präsidentendentdentdent dentdentdentdent dentdent das Startup als Zeichen für die Widerstandsfähigkeit Chinas angesichts der US-amerikanischen Bemühungen, Chinas KI-Fortschritte einzudämmen.

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS