Warum Open-Source-KI-Modelle wie DeepSeek die Zukunft sein könnten
Dieser Blogartikel wurde automatisch erstellt (und übersetzt). Er basiert auf dem folgenden Original, das ich für die Veröffentlichung auf diesem Blog ausgewählt habe:
Lago Blog – Why DeepSeek had to be open-source (and why it won’t defeat OpenAI).
Warum Open-Source-KI-Modelle wie DeepSeek die Zukunft sein könnten
Das Aufkommen von DeepSeek, einem chinesischen KI-Labor, das mit R1 ein Open-Source-Reasoning-Modell entwickelt hat, welches mit OpenAI's o1 mithalten kann, wirft interessante Fragen auf. Besonders bemerkenswert ist, dass DeepSeek dies mit geringeren Hardware-Ressourcen und zu einem Bruchteil der Kosten erreicht hat. Doch warum entschied sich DeepSeek für einen Open-Source-Ansatz?
Der strategische Vorteil von Open Source
In der Welt der Large Language Models (LLMs) scheint der Open-Source-Gedanke immer mehr an Bedeutung zu gewinnen. DeepSeek's Entscheidung mag auf den ersten Blick unkonventionell erscheinen, doch sie ist strategisch klug. Als chinesisches Unternehmen könnte DeepSeek im Westen auf Skepsis stoßen, insbesondere wenn es um den Umgang mit Kundendaten geht. Ein Open-Source-Modell schafft hier Vertrauen, da es volle Kontrolle durch Self-Hosting oder die Nutzung von Anbietern wie Together AI ermöglicht.
Es lässt sich argumentieren, dass Open Source nicht nur ein technologisches, sondern auch ein kulturelles Phänomen ist. Unternehmen, die auf Open Source setzen, müssen oft mit weniger Ressourcen auskommen. DeepSeek war aufgrund von Exportkontrollen auf High-End-Chips wie Nvidia H100s gezwungen, effizientere Trainingsmethoden zu entwickeln.
Die Kommodifizierung von Modellen
Die rasante Entwicklung im Bereich der LLMs führt zu einer zunehmenden Kommodifizierung. Es scheint, als würde jede Woche ein neues Modell auf GPT-4-Niveau veröffentlicht. Für Anwender wird es immer schwieriger, zwischen verschiedenen Modellen wie LLaMa, GPT, Claude oder Mistral zu unterscheiden.
Es stellt sich die Frage, ob sich der Preisaufschlag für die OpenAI API im Vergleich zu Open-Source-Alternativen noch lohnt. DeepSeek bietet hier ein besonders markantes Beispiel: $60 pro Million Output-Token bei OpenAI o1 gegenüber $7 pro Million Output-Token bei DeepSeek R1 auf Together AI. Wenn der Endnutzer keinen Unterschied feststellt, warum sollte er dann deutlich mehr bezahlen?
Open Source in der Infrastruktur
Im Bereich der Infrastruktur hat sich Open Source zunehmend durchgesetzt. Während proprietäre Software oft einfacher zu bedienen ist, bietet Open Source Kostenvorteile und eine höhere Anpassbarkeit. Der Wartungsaufwand kann jedoch höher sein. Allerdings ist Infrastruktur ohnehin oft komplex und erfordert Anpassungen.
Die Vorteile proprietärer Software sind in diesem Bereich geringer. Ingenieure bevorzugen oft Open Source, da sie den Code einsehen und prüfen können. Dies gilt auch für LLMs: Um ein nützliches Produkt zu entwickeln, sind ohnehin individuelle Anpassungen und Prompt-Engineering erforderlich. Daher kann es sinnvoll sein, DeepSeek's R1 anstelle von OpenAI's o1 zu verwenden.
Die Zukunft proprietärer KI
Bedeutet dies das Ende proprietärer KI? Sicherlich nicht. OpenAI war stets Vorreiter und hat LLMs wie GPT-4 und Reasoning-Modelle wie o1 als erster auf den Markt gebracht. Ohne OpenAI's Modelle gäbe es DeepSeek R1 und viele andere Modelle nicht. Dennoch wirft dies die Frage auf, ob es sich noch lohnt, neue Frontier-Modelle zu entwickeln, wenn andere Unternehmen ähnliche Produkte zu deutlich geringeren Kosten anbieten können. Möglicherweise werden die etablierten Player durch R1 gezwungen, effizientere Methoden zu entwickeln.