Im Januar dieses Jahres veröffentlichte Deepseek Startup für künstliche Intelligenz zwei Durchbrüche durch sein neues Modell R1, wodurch die Wirtschaft künstlicher Intelligenz leise neu definiert wurde. Dieses Modell erzielt mit 1/40 der Kosten des Vorgängermodells eine Spitzenleistung. Ab Dezember 2024 hat Deepseeks V3 großes Sprachmodell die Schulungskosten um mehr als 90%gesenkt.
Zwei von Deepseeks Durchbrüchen erregten weit verbreitete Aufmerksamkeit: Erstens enthüllte Deepseek, dass die Aufforderung von KI -Modellen, ihre Argumentationsprozesse zu erläutern - ein Forschungsansatz, der als Anlaufgedünnungskette bekannt ist - eine verbesserte Genauigkeit und Effizienz verbesserte. Zweitens verwendet Deepseek künstliche Intelligenz, um eigene Datensätze zu generieren, die völlig unabhängig von der manuellen Kennzeichnung der Daten sind. Während es Argumente gibt, dass Deepseek nicht so billig ist, wie es behauptet, haben diese Durchbrüche sicherlich eine neue Ära der AI -Wirtschaft eingeleitet.
Die Kostenstruktur der künstlichen Intelligenz ändert sich dramatisch. Jedes Dollar an Leistungsschub hat sich tiefgreifend auf Start-ups, Unternehmensanwendungen und Infrastrukturinvestitionen ausgewirkt. Diese Verschiebung könnte die Marktkräfte verbessern und letztendlich dazu beitragen, dass die Start -ups kurzfristig Tech -Giganten einholen und gleichzeitig die Gewinnmargen steigern.
Tech -Riesen haben bereits mehr als 100 Milliarden US -Dollar in die Entwicklung der AI -Infrastruktur investiert und steigt weiter. Jetzt müssen sie überlegen, wie sie eine Rendite für diese riesigen Investitionen erzielen und einen Vorteil gegenüber Algorithmen gegen flinkere, kleinere Marktkonkurrenten beibehalten können. Angesichts einer sich schnell verändernden Umgebung stehen sowohl Tech-Riesen als auch Start-ups vor einem klaren Signal: Nehmen Sie die Möglichkeit des technologischen Fortschritts schnell oder werden Sie beseitigt.
Vor dem Aufstieg von Deepseek kämpften Start-ups, um mit den Infrastrukturausgaben von Tech-Riesen zu konkurrieren, die jedes Quartal Milliarden von Dollar in den Bau großer Rechenzentren einschlossen und durch Fortschritte in der künstlichen Intelligenztechnologie enorme Vorteile erzielten. Diese Riesen haben nicht nur massive Datenressourcen, sondern sammeln auch eine große Anzahl von Doktoranden, und der Fortschritt von Algorithmen hängt auch von ihrer starken technischen Stärke ab. Darüber hinaus ermöglichen sie langjährige Vertriebsnetzwerke sie, Produkte schnell an bestehende Kunden zu verschieben und den technologischen Fortschritt durch Feedback-Schleifen zu beschleunigen.
Heute sind Startups jedoch groß genug, um mit den Tech -Giganten zu konkurrieren. Allein 2025 werden die Kosten für Schulungsmodelle um 95%sinken, was den Infrastrukturvorteil der Tech -Riesen erheblich verringert. Die Argumentationskosten sind in den letzten drei Jahren fast tausendfach gefallen und werden voraussichtlich in Zukunft weiter sinken. Die Dauer des algorithmischen Vorteils wurde auf 45 bis 100 Tage reduziert und kann weiter abnehmen.
Wenn die Schulungskosten kein wichtiger Engpass mehr sind, wird die Inferenzleistung (dh wie gut KI-Modelle in Echtzeitanwendungen abschneiden) zu einem neuen Fokus. Wir treten in eine neue Phase ein: kleinere, billigere Modelle, die größere Modelle vergleichbare Leistung bieten und auf GPUs mit niedrigerer Leistung ausgeführt werden können, wodurch die Lebensdauer älterer GPUs verlängert wird. Wenn intelligentere KI -Produkte zu sehr günstigen Kosten geliefert werden können, haben Startups endlich die Möglichkeit, die Tech -Giganten zu übertreffen und gleichzeitig die Gewinne zu steigern.
Eine effiziente Zuweisung von Arbeitskräften stärkt den Vorteil des Herausforderers weiter. Da keine große Anzahl von Talenten auf Doktoranden eingestellt werden muss, um ein wettbewerbsfähiges KI-Team zusammenzustellen, können Startups Modelle zu viel kostengünstigeren Kosten entwickeln, optimieren und verteilen als Tech-Riesen. Und da sie sich auf Anwendungsebene größtenteils konzentrieren, können Herausforderer in der Lage sein, höhere Gewinnmargen zu genießen, wie Cloud -Startups durch die Verbesserung der Wirtschaft der Einheiten vor 15 Jahren einen Vorteil erzielten.
Dieser Trend ist nicht nur gut für Startups. Es stellt auch Unternehmen wie NVIDIA ein höheres Risiko aus. Nach der Ankündigung von Deepseek fiel der Aktienkurs von Nvidia um 12%, obwohl er sich seitdem erholt hat. Die Risiken für Chiphersteller werden erhöht, da die Nachfrage von schädigen fokussierten Hardware zu effizienteren Inferenzlösungen verlagert wird. Der Anstieg von NPUs (Neural Processing Units) für Verbraucherqualität könnte diese Verschiebung beschleunigen und es KI-Modellen ermöglichen, nativ auf Geräten wie Smartphones und Laptops zu laufen.
Was für Herausforderer gut ist, ist schlecht für Technologiegiganten. KI -Giants haben die Dominanz von Deepseek fast instinktiv zu den nationalen Sicherheitsauswirkungen gebunden, um die Unterstützung für die Entwicklung ähnlicher Technologie zu verbessern und die Tatsache zu ignorieren, dass US -Forscher, auch an der Stanford University, die Technologie von Deepseek nachbilden und sogar übertreffen konnten. Mit Blick auf die Zukunft könnten Unternehmen, die enorme Summen in Dateninfrastrukturprojekte investieren, fragen: Wurden die enormen Ausgaben für KI -Modellforschung und -entwicklung verschwendet? Wenn billige Technologie genauso gut funktioniert wie teure Technologie, warum dann so viel Geld ausgeben?
Historische Trends legen nahe, dass sich die meisten KI -Fortschritte tatsächlich auf übermäßige Kapitalinvestitionen in die Größenordnung verlassen haben. Die Transformatorarchitektur war erfolgreich, da übertraining das übertrieb, was zu dieser Zeit als algorithmisch optimal angesehen wurde. Neue technologische Fortschritte beweisen, dass wir die gleiche Leistung zu geringeren Kosten erzielen können. Obwohl effiziente Lösungen wie Deepseek die Effizienz erheblich verbessert haben, erfordert die Expansion von Hyperscale -Cloud -Anbietern immer noch größere Rechenzentren und muss die Bilon -Inferenzkosten tragen.
Die Tech -Riesen sitzen jedoch nicht still. Wir sehen bereits ein Wettrüsten für Deepseeks Errungenschaften mit Leuten wie Googles Gemini -Modell, Microsoft Azure AI Foundry und Metas Open -Source -Lama, die alle um Dominanz wetteifern. Open -Source -Modelle können eine Schlüsselrolle spielen. Mark Zuckerberg, CEO von Meta, betonte die Bedeutung der personalisierten KI - dh Modelle, die auf die Bedürfnisse, Kultur und Vorlieben einzelner Benutzer zugeschnitten sind. Diese Vision stimmt mit einem breiteren Trend in der KI -Entwicklung überein: kleinere, spezialisiertere Modelle, die eine hohe Leistung liefern können, ohne dass eine massive Cloud -Infrastruktur erforderlich ist.
Gleichzeitig haben Open Source- und Closed Source -Giganten unterschiedliche Ziele, was den Vorteil des Herausforderers weiter verbessert. Open -Source -Modelle, die von Unternehmen wie Meta erstellt wurden, werden weiterhin konkurrieren und die Kosten im gesamten Ökosystem senken, während geschlossene Quellmodelle versuchen, höhere Gebühren durch bessere Technologie zu erheben. Startups können den Wettbewerb zwischen den beiden Lagern nutzen, um die beste Preis-/Leistungsquote für jede Verwendung zu erreichen und gleichzeitig die Gewinnmargen zu erhöhen.
Unabhängig von der Größe des Geschäfts ist die Botschaft klar: Nutzen Sie die spezifischen Vorteile, die ihnen zur Verfügung stehen - Marktdynamik, Rechenleistung und Talent - schnell oder Gesichtsausfall. Der Zyklus des technologischen Fortschritts wird von den Monaten oder sogar Jahren, die er früher benötigte, um neue Leistungsstandards festzulegen, bis zu Deepseeks technologischem Durchbruch, was darauf hindeutet, dass es jetzt nur 41 Tage dauern könnte. Innovation geht mit beispielloser Geschwindigkeit vor, und der Verwerfungs-Toleranzraum schrumpft schnell.