AI/KI News

DeepSeek: Chinas KI-Pionier zwischen Innovationsdrang und Realitätscheck

DeepSeek, ein aufstrebender chinesischer KI-Entwickler, geht in der aktuellen Phase der KI-Industrialisierung einen eher ungewöhnlichen Weg. Während westliche Unternehmen wie OpenAI Milliarden an Investitionen einsammeln und Kooperationen mit Big Tech eingehen, um ihre Marktstellung zu sichern, bleibt DeepSeek dem Rätselraten der Öffentlichkeit überlassen. Laut einem Bericht der Financial Times verzichtet das Unternehmen nicht nur auf externe Finanzierung, sondern auch auf staatliche Unterstützung und Zusammenarbeit mit Branchengrößen wie Tencent oder ByteDance. Die Begründung: Fokus auf Forschung und Entwicklung statt Skalierung.

Ideologie trifft auf Realität

Hinter der ungewöhnlichen Strategie steckt der Milliardär Liang Wenfeng, der sich eine Art “Navy-Seal”-Mentalität für sein Unternehmen auf die Fahne geschrieben hat. Laut Insiderberichten will DeepSeek keine kurzfristige Kommerzialisierung, sondern seine Modelle auf das nächste Level heben. Dass diese Haltung in einem Markt, der von schnellen Kapitalflüssen und Skalierbarkeit lebt, ungewöhnlich ist, steht außer Frage. Besonders im direkten Vergleich zu OpenAI wird der Kontrast offensichtlich, während Sam Altmans Unternehmen allein für die nächste Finanzierungsrunde bis zu 40 Milliarden US-Dollar einwerben will, setzt DeepSeek weiterhin auf seine schlanke Struktur und Unabhängigkeit.

Chinas KI-Industrie: Potenzial nicht ausgeschöpft?

Diese Strategie könnte allerdings auch Schwächen offenbaren. Der chinesische KI-Markt ist zwar rasant gewachsen, aber Berichten zufolge waren viele der eigens eingerichteten KI-Cluster vor der Veröffentlichung von DeepSeek-Modellen nur zu etwa 20 % ausgelastet. Im Gegensatz zu westlichen Giganten wie Microsoft oder Google fehlen hier oft etablierte Strukturen für den großflächigen Einsatz von KI-Technologien. Hinzu kommt, dass DeepSeek mit seinem alleinstehenden Ansatz seinen Konkurrenten Alibaba und Co. freie Bahn lässt, sich als Standardanbieter für Unternehmens-KI zu etablieren.

Nachhaltigkeit fraglich: Lässt sich das Modell halten?

Ob DeepSeek langfristig mit dieser Strategie bestehen kann, bleibt abzuwarten. Denn auch wenn die aktuellen Modelle R2 und V4, die für dieses Jahr erwartet werden, große Fortschritte versprechen, stellt sich die Frage, wie das Unternehmen den nötigen Rechenaufwand finanzieren will. Es bleibt kaum vorstellbar, dass langfristige Entwicklungen im KI-Bereich ohne erhebliche Kapitalzuflüsse möglich sind. Letztlich dürfte sich zeigen, ob DeepSeek tatsächlich eine Ausnahme bleibt oder doch früher oder später den Realitätstest der Branche nicht besteht.

Source:  The Financial Times

 

Kommentar

Lade neue Kommentare

Widukind

Urgestein

653 Kommentare 306 Likes

Interessant wäre doch ob man Deep Seek mit RTX Chat oder AMD Chat kombinieren kann.

Ich suche gerade für mich eine geeignete AI Software, die man lokal nutzen und füttern kann , bei Bedarf aber auch auf das World Wide Web zugreifen kann.
Gibt es das oder gibt es Ideen dazu.

Welche anderen AI Plattformen machen Sinn?

Hardware:
RTX Chat benötigt eine GeForce RTX ab Gen2 mit mindestens 8GB.

Was benötigen AMD Chat?

Was benötigen Alternativen?
Wie wichtig ist eine CPU mit AI Funktionalität?

Allen einen guten Start in die Woche :)

Antwort 1 Like

e
eastcoast_pete

Urgestein

2,387 Kommentare 1,555 Likes

Ich versuche (okay, ich spiele 😜) es gerade mit GPT4all (von NomicAI, code ist quelloffen gelegt) und einer kleineren Distill von DeepSeekR1 für sowas ähnliches.
Das ganze läuft bei mir auf der CPU (Alder Lake i7), was okay ist. Habe allerdings keine Nvidia dGPU, mit der ging's sehr wahrscheinlich deutlich flotter. Wenn ich mich dazu aufraffen kann, versuche ich mal, GPU Beschleunigung bei mir mit Vulkan zu machen, dann soll das auch mit AMD oder Intel GPUs gehen. Leider ist das sehr viel mehr Gefrickel als mit CUDA, denn damit geht's gleich "out of the box".

Antwort 1 Like

Widukind

Urgestein

653 Kommentare 306 Likes

Hört sich spannend an! :)

Antwort Gefällt mir

OldMan

Veteran

419 Kommentare 189 Likes

Wenn Du etwas lokal betreiben willst nimm Llama3.2, das ist ein kleines, ressourcenschonendes LLM, das für einfache Fragen schnell und effizient Antworten liefert. Je nachdem was Du an VRAM hast kannst Du auch Llama3.3:70b-instruct-q8_0 nehmen, das ist ein großes LLM, das tiefere Analysen ermöglicht, komplexe Antworten bietet und ein umfassendes Wissen bereitstellt, jedoch wesentlich mehr Rechenleistung erfordert. Für das 70b Model brauchst Du rund 70GB VRAM, also 3 Karten mit 24GB parallel geht. Ist aber für zu Hause übertrieben :LOL: Auf meiner Karte mit mit 24GB VRAM läuft das das kleine relativ gut, obwohl ich hier ne AMD Karte habe und mich mit der Zwischenschicht ROCm rumärgern muss. Wenn Du eine NV GraKa hast tust Du dir da wesentlich leichter weil die eben CUDA unterstützen. Wenn Du eine AMD Karte hast, dann empfehle ich Dir auf jeden Fall das unter LINUX zu machen, da die WIN Version von ROCm eingeschränkt ist.

Der Vorteil von Llama ist, dass Du hierzu unzählige Anleitungen findest. Wenn Du auch noch fertige Wissensdatenbanken benötigts wirst Du hier bestimmt fündig: OpenML

Wenn es Dir um Trainingsdatensätze geht findest Du hier eine schöne Zusammenfassung von Quellen: Offene Datensätze für KI/ML

Du kannst natürlich das ganze auch Mehrstufig aufbauen, also erst lokale KI und dann z.B. ChatGPT. Auch dazu findest Du mehr als genug Anleitungen im Netz. Ich würde Dir aber empfehlen, sofern Du dich neu mit der Materie beschäftigst, erst mal mit dem lokalen anzufangen und das sauber zum laufen zu bringen. Geht relativ einfach wenn man sich für die Materie interessiert.

Ach ja, nur um die Frage gleich vorweg zu beantworten warum ich das auf AMD mache: 1. Ich habe eine pers. Antipathie gegen NV und zweitens weil es billiger ist. Das Leistungsverhältnis zwischen NV und AMD liegt bei ca 1:1,5, das Preisverhältnis liegt aber aber bei 1:2. Das heißt wenn ich mir zwei 7900XTX kaufe habe ich trotz ROCm 50% Mehr Leistung fürs gleiche Geld (1000€ für eine XTX und 2000€ für eine 4090). Du brauchst halt auch die Voraussetzungen dass Du zwei GraKas in deinem PC betreiben kannst.

Und ja, das ist keine Anwendung für einen PC, aber das rumprobieren macht trotzdem Spaß, es funktioniert und ich muss damit ja nicht mein Geld verdienen. In der Arbeit habe ich andere Plattformen zur Verfügung die ich mir aber privat nicht leisten will.

Antwort 1 Like

Klicke zum Ausklappem
Widukind

Urgestein

653 Kommentare 306 Likes

@OldMan Vielen Dank für Deine Ausführliche Rückmeldung.

Ja ich finde das auch sehr spannend. Schon das einfach ChatGPT hat potential auch für die Berufliche Nutzung bei Recherchen und Marktforschung sowie beim Verfassen bzw optimieren von Texten. Man spart sehr viel Zeit.

Das würde ich gerne weiter ausbauen in diesem Bereich. Vielleicht auch verknüpfen mit dem Bereich Präsentationen erstellen. Also Ideen für eine sinnvolle Nutzung hätte ich. :)

Bilder verändern oder Videos usw. mache ich nicht. Eher Texte, Präsentationen (Bilder einfügen, aber nicht bearbeiten) und Recherche.

Ich werde das erstmal auf meinem PC testen. Später schaue ich mir Deine Empfehlungen an, Danke!

Auf mittelfristige Sicht würde ich gerne einen Mini-PC für die KI bauen. Evtl auch auf Linux-Basis. Mit Blick auf Datenschutz- und Sicherheit. Dann müsste ich schauen, ob AMD nicht nur von den Treibern her bei Linux auch besser läuft, sondern ob die Performance auch ausreicht. Ich würde dann allerdings bei einer RX4000 20GB oder RX7600XT 16GB starten (beides um die 300-400€ beschaffbar).

Antwort Gefällt mir

Klicke zum Ausklappem
OldMan

Veteran

419 Kommentare 189 Likes

Das finde ich ein sehr spannendes Vorhaben. Da gibt es von NV auch ein entsprechende Projekt: Digits. Da versucht NV die HW einer Workstation in das Mini PC Format zu bekommen. Aber Vorsicht: Hier geht es nur um das Format! AI braucht Rechenleistung und VRAM. Schrumpfen, also in das Format kann man es schrumpfen, was aber Leistung und der damit anfallenden Umstände wie Stromaufnahme, Kühlung, etc. angeht wird es mit der normalen HW schwierig werden auf Mini-PC Niveau zu bekommen.
ChatGPT für die berufliche Nutzung ist für mich ein absolutes NoGo! Nicht nur dass hier sensible Informationen zwangsläufig abfließen sonder auch weil die ganzen KI Anbieter dazu übergehen die Ergebnisse für sich zu beanspruchen, also praktisch als geistiges Eigentum (Coppyright betrachten. Also zwingend vorher das Kleingedruckte lesen.

Antwort 2 Likes

Widukind

Urgestein

653 Kommentare 306 Likes

Ich habe erstmal an was kleines Günstiges gedacht um reinzukommen. :)

Linux Mint
ATX-Board
32GB
GPU, z.B. RTX2000,16GB/ RTX4000,20GB (gebraucht) oder AMD-Karte,16GB (z.B.7600XT)
CPU, ab 10 Kerne wird wohl empfohlen -aber da liest man sehr unterschiedliches (sollte nicht so teuer sein)
NT ATX-Format, was günstiges
Festplatte? Was braucht man wohl dafür? Ganz normal ein 1TB?

Gehäuse klein für mATX MB, ATX NT

Vorteil bei diesen kleinen Gehäusen => es gibt auch Taschen für den Transport. :cool:

Das ist mir schon bewusst. 😅😇 Ich habe ja keine Daten von mir rein gegeben. Nur die Fragestellungen an sich. Jetzt kann ChatGpt anhand meiner Fragensellungen gewisse Rückschlüsse ziehen -mehr jedoch nicht.

Aber mal ehrlich, die Leute und Unternehmen nutzen MS Produkte. Windows ist die größte Spyware überhaupt. Man kann sich ja die ganzen Hintergrundprozesse für Spionage (kein Scherz) in Ruhe ansehen. Dazu alle 5 Sekunden ein Screenshot vom aktuellen Bildschirm.

Antwort Gefällt mir

Klicke zum Ausklappem
OldMan

Veteran

419 Kommentare 189 Likes

Für die ersten Schritte reicht das vollkommen aus was Du hier beschreibst. Damit kannst Du auch für den Hausgebrauch als "Familien-KI" was sinnvolles aufstellen. Wenn Du allerdings die komplette Nachbarschaft mit der KI bedienen willst, dann wird es eng :ROFLMAO: Ich habe hier z.B. noch einen alten Gaming Notebook mit einem i7 der 6Gen und eine GTX 1070. Das genügt für kleine Modelle und für die ersten Schritte in dem Bereich völlig aus.
Ich weiß nicht wie gut Du dich mit dem Thema schon auf technischer Seite befasst hast, aber die Größe des Modells mit dem Du arbeite kannst hängt in erster Linie vom VRAM ab. Die Datenbasis muss komplett im VRAM Platz haben. Bei dem oben genannten Llama70b q8 ist es so, dass die q8 Quantisierung ein 1:1 Verhältnis von Billion Parameter zu GB VRAM ist, sprich 70 Milliarden Paramter entsprechen 70 GB VRAM (grob). Das spielt aber am Anfang für die ersten Versuche keine Rolle mit welcher Größe Du startest um einfach Erfahrung zu sammeln.

Und wenn Du wirklich Beginner bist, dann fang mit einer NV Karte an. CUDA kann nativ genutzt werden ohne einen Umweg, und das tun aktuell alle gängigen AI Modelle. Wenn Du dann ein wenig drinnen bist in der Materie, dann kannst Du Dich der Herausforderung von AMD und ROCm stellen. Gleich zu Beginn mit ROCm anzufangen führt schnell in den Wald weil dir dann die Fehlerquelle, also z.B. falsch aufgesetztes LLM oder falsch konfiguriertes ROCm, nicht sofort ins Auge springt. ROCm unterstützt offiziell nur wenige Radeon Karten, aktuell nur die RX 7900 ( Anforderungen ROCm) oder eben Radeon Pro oder eben Instinkt. Ander Karten bekommt man aber auch zum laufen, ist halt ein wenig Bastelei, was aber Spaß macht. Dafür ist es aber Voraussetzung dass man andere Fehlerquellen ausschließen kann, dazu braucht man aber ein wenig Erfahrung mit LLM's. Daher der Rat, beginne mit NV.

Das ist genau der Grund warum bei uns in der Arbeit keine MS Produkte zu Einsatz kommen.

Antwort 1 Like

Klicke zum Ausklappem
Widukind

Urgestein

653 Kommentare 306 Likes

Wenn 64GB oder mehr nötig ist, dann plane ich das lieber direkt mit ein. :) Ja, ich habe echt noch keine Idee, wie ich das ganze dann nutzen werden. Ich denke, Learning by Doing. Ich habe auch noch keine einizige tolle Anleitung oder ein entsprechends YT-Video gefunden, wo der Einstieg in die Thematik vernünftig erklärt wird für absolute Neulinge. Aber deswegen möchte ich mal anfangen.

Bevor ich das Projekt mit eigenem KI-Rechner starte, werde ich Llama auf meinem PC installieren und mal mit meiner Hardware probieren (12600K, 32GB DDR4, RTX5070TI 16GB).

Gut zu wissen. Erstmal Linux neu aufsetzen usw..., das reicht mir schon für's erste an Herausforderung.

Dann arbeitest Du wahrscheinlich in einem inhabergeführten modernen Unternehmen. (y):) Die meisten Unternehmen haben echt keinen Plan was das angeht oder legen keinen Wert darauf. 🫣 Selbst in der IT-Branche.

Antwort Gefällt mir

OldMan

Veteran

419 Kommentare 189 Likes

Anleitung in Textform: Llama 2 Install
Anleitung Video:

Antwort 1 Like

Widukind

Urgestein

653 Kommentare 306 Likes

Danke Dir! 🙏🙏🙏🙏 :)

Werde ich mir in Ruhe ansehen.

Antwort Gefällt mir

8j0ern

Urgestein

3,577 Kommentare 1,161 Likes

Daher nutze ich HDR auf dem Desktop, sollen sie ruhig alle 5 Sekunden ein Screenshot erstellen. (~10MByte Komprimiert)
Wenn das über das I-Net soll habe wir Daten-Stau und Massen Lags.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung