Da Deepseek weiterhin beliebt ist, sind die Menschen mit der Verwendung von Deepseek auf der Web- und App -Seite nicht zufrieden und versuchen, Deepseek zu lokalisieren. Die Lokalisierung umfasst die Installation der großen KI -Modelle von Deepseek auf lokalen Computern, ohne sich auf Netzwerke oder Cloud -Dienste zu verlassen. Reporter durchsuchten Video -Websites und stellten fest, dass viele Benutzer Tutorials über die Bereitstellung von Deepseek auf lokalen Computern hochgeladen haben, und viele Videos wurden mehr als 1 Million Mal angesehen.
Durch die Suche nach "Deepseek Local Deployment" auf der E-Commerce-Plattform stellte der Reporter fest, dass viele Geschäfte das Deepseek-Geschäft für das lokale Einsatz eröffnet haben, und der Preis für diese Dienstleistungen reicht von ein paar Dollar bis hin zu Dutzenden von Dollar, und einige dieser Dienste wurden kürzlich von 1.000 Personen gekauft.
Ein KI -Enthusiast, der versucht hat, bereitzustellen, sagte Reportern, dass die Reaktionsgeschwindigkeit der Netzwerkseite langsam ist. Wenn der Verkehr zu groß ist, gibt es oft "Der Server ist beschäftigt, bitte versuchen Sie es später erneut." Um eine bessere Erfahrung zu machen, versuchte er Deepseek für den lokalen Einsatz zu nutzen. Es wird davon ausgegangen, dass die lokale Bereitstellung nicht tiefes Programmierkenntnisse durch den Tutorial Schritt für Schritt nicht einsetzen muss, können Sie erfolgreich einsetzen.
Zhang Yi, Chief Analyst bei Iimedia Consulting, sagte gegenüber Reportern: "Der lokale Einsatz unterstützt Einzelpersonen, um einige maßgeschneiderte Änderungen an Deepseek entsprechend ihren Bedürfnissen vorzunehmen, was auch eine der treibenden Kräfte ist." Zhang Yi fügte hinzu, dass personenbezogene Daten in der lokalen Bereitstellung nicht in die Cloud gehen, was den Datenschutzbedürfnissen entsprechen kann.
Deepseek veröffentlichte Modelle mit unterschiedlichen Parametern, von nur 1 Milliarde Parametern bis zu 671 Milliarden Parametern und je größer die Parameter, desto größer sind die erforderlichen Rechenressourcen. Aufgrund der begrenzten Rechenressourcen von Geräten wie PCs und Mobiltelefonen kann das 671 Milliarden Parameter Deepseek -Modell häufig nicht lokal bereitgestellt werden. "Ein typischer Laptop kann nur eine Milliarden-Parameter-Version bereitstellen, aber ein PC mit einer guten GPU oder einem hohen Speicher (z. B. 32 GB) kann eine 7-Milliarden-Parameter-Version von Deepseek ausführen." Die KI -Technologie -Enthusiasten erzählten Reportern.
In Bezug auf die Wirkung der lokalen Bereitstellung ist die Antwortqualität des großen Modells, je kleiner die Version der Parameter ist. "Ich habe die 7 -Milliarden -Parameterversion von Deepseek ausprobiert, die lokal bereitgestellt wurde, und sie lief reibungslos, aber die Antwortqualität war viel schlechter als die Cloud -Version, und der Effekt der kleineren Parameterversion war noch schlechter." Die obigen KI -Enthusiasten sagten.
Bei der Wärme des lokalen Einsatzes von Deepseek wird erwartet, dass AI -PCs, die die NPU zu PCs spezifisch hinzufügen, das Umsatzwachstum einführen. Es wird davon ausgegangen, dass Huawei, Lenovo und andere Computermarken AI PC auf den Markt gebracht haben. Dieser neue PC ist mit einer speziellen Verarbeitung der lokalen Bereitstellung von AI Large Model Computing -Prozessor -Chips ausgestattet. Diese Prozessorchips werden von Intel, AMD, Qualcomm und anderen Chip -Fabriken bereitgestellt.
Diese KI -PCs können lokal eingesetzt werden und reibungslos zehn Milliarden von Parametern des KI -großen Modells ausführen, wie beispielsweise dieses CES 2025, AMD hat Ryzen AI Max -Serienprozessoren gestartet. Der mit dem Prozessorchip ausgestattete KI -PC ist jedoch teuer, und es versteht sich, dass der Preis für ein ASUS -Spielbuch fast 15.000 Yuan beträgt. Darüber hinaus haben einige Leute in Frage gestellt, dass viel Geld für den Kauf von KI -PCs ausgeben, die lokale Einsatz von KI -großen Modellen ausführen und Funktionen erzielen, die sich mit Cloud -KI -großen Modellen stark überlappen. AI PC ist nur ein Gimmick von Herstellern.
Neben Personen, die die lokale Deepseek -Bereitstellung eröffnen, beginnen die Unternehmen auch zu versuchen. Am ersten Tag des Arbeitstages des Jahres der Schlange veröffentlichte Wang Jiahui, der Gründer von Timwei Ao, einen WeChat -Freundeskreis: "Deepseek Large Model Local Computer Deployment Experience Erfolg, importieren Kohlendaten -Sicherheitsdatenbank für Fragen und Antworten, der nächste Schritt, um es mit Industriefeldeinsätzen zu kombinieren."
Timviao ist ein Unternehmen, das Industriemanagementlösungen für die Bergbauindustrie, die Ölindustrie und andere Branchen anbietet und AR-Brillen und KI-Software verwendet, um Echtzeitbeobachtungen und -anleitungen für die Wartung, Qualitätsinspektion und Fehlerbehebung des industriellen Feldpersonals bereitzustellen. Wang Jiahui sagte Reportern, dass nur Tongyi Qian AI großes Modell bittet, eine lokale Frage und Antwort zu erstellen, da er angesichts der Fähigkeit zur besseren Begründung von Deep, die Deepseek und Business Deep Integration erwägt.
"Auf der Grundlage von Deepseek stimmen wir spezifische Parameter oder sekundäre, entwickeln sie für IT-Systeme und implementieren neue Funktionen auf der Grundlage der Anforderungen und Daten spezifischer industrieller Szenarien." "Unser Ziel ist es, Deepseek lokal einzusetzen und mit Kameras vor Ort zu interagieren, um gefährliche Operationen vor Ort besser zu identifizieren und Funktionen wie versteckte Gefahrenerfassung und Produktqualitätsprüfung zu implementieren", sagte Wang gegenüber Reportern.
Er ist der Ansicht, dass, ob industrielle Kunden eine lokale Bereitstellung einnehmen, hauptsächlich von der Vertraulichkeit der Daten abhängt. "Einige staatliche Unternehmen, militärische und medizinische Geräteunternehmen bitten uns häufig, lokale Bereitstellungslösungen umzusetzen, da sie hohe Anforderungen an die Datensicherheit haben." Er fügte hinzu: "Nicht geheiste Szenarien können Cloud-Access-Lösungen verwenden, obwohl es operative Verzögerungen geben wird, die Auswirkungen jedoch gering sind und der Lösungspreis niedriger ist."
Für lokale Bereitstellungen benötigen diese Kunden Server, die mit 4-Karten- oder 8-Karten-GPUs ausgestattet sind, um Deepseek Local Inference Services zu implementieren. "Meine Kunden wählen im Allgemeinen die Verbrauchergrafikkarten von NVIDIA, um ihre Server wie den 4090 für ein besseres Preis -Leistungs -Verhältnis zu konfigurieren." "Wenn Kunden inländische Konfigurationsanforderungen haben, kaufen wir teurere GPU -Grafikkarten inländischer GPU", sagte Wang.
Neben der Industrie beginnen immer mehr Unternehmen, Deepseek lokal einzusetzen. Sinolink Securities sagte, dass Deepseek auf Informationsabruf, Dokumentenverarbeitung, Branchenforschung, Marktforschung und andere Szenarien angewendet werden kann. Darüber hinaus haben Unternehmen in der medizinischen Industrie, der Netzwerksicherheit und anderer Branchen in letzter Zeit Deepseek vor Ort eingesetzt, einschließlich Wanda Information und Qihoo 360.
Zhang Yi teilte Reportern mit, dass die Unternehmensanforderungen, wenn die Unternehmen ihre Anforderungen für den lokalisierten Einsatz erweitern, die Nachfrage nach inländischen Argumentationsmacht erhöhen wird, und die Vereinigten Staaten verbieten High-End-Chips, inländische Chip-Computing-Energieunternehmen werden größere Chancen einleiten.
Cristiano Amon, CEO von Qualcomm, sagte, dass Deepseek-R1 ein Wendepunkt für die KI-Industrie ist. Die KI-Argumentation werde auf die Endseite wandern, KI wird kleiner, effizienter und kundenspezifischer, und KI große Modelle und KI-Anwendungen basieren auf bestimmten Szenarien. Der Research Report von China Aviation Securities ist der Ansicht, dass Deepseek-R1 zeigt, dass der End-to-End-KI-Einsatz integrativer wird und die Ära aller intelligenten Dinge beschleunigen wird.
Open Source wird mehr Entwickler dazu verleiten, Apps auf Deepseek zu erstellen. Inländische GPU -Karten wie Huawei Centeng, Moore -Thread, Bishi -Technologie und täglicher Kern wurden an Deepseek angepasst. Tencent Cloud, Alibaba Cloud, Mobile Cloud, Huawei Cloud und andere Cloud -Hersteller haben auch die Anpassung mit Deepseek abgeschlossen. Die Anpassungsoptimierung der inländischen Rechenleistung wird voraussichtlich die Kosten der Inferenzseite weiter senken.
Da die Angewohnheit der inländischen App -Zahlung noch nicht vollständig ausgereift ist, kann die Kommerzialisierung von AI -Anwendungen behindert werden. Meng Can, Chef des National Finance Computer, ist der Ansicht, dass die Vereinigten Staaten eine 10-jährige oder sogar 20-jährige Grundlage für die Bewerbungszahlung haben, was für die Kommerzialisierung von AI-Anwendungen hilfreich ist, während der Inlandsmarkt aufgrund des Fehlens einer solchen Stiftung langsam sein wird. Das Land holt jedoch ständig auf, und der Zeitplan wird voraussichtlich auf weniger als ein halbes Jahr reduziert.