News Get Amped! Nvidia teasert den ausgefallenen Online-Stream für den 14. Mai an. Sehen wir dann Ampere?

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.105
Bewertungspunkte
18.594
Punkte
114
Alter
59
Standort
Labor
NVIDIA hat nun den neuen Termin für seine ausgefallene Online-Veranstaltung im Rahmen der GTC 2020 bekannt gegeben: den 14. Mai 2020. Das Unternehmen lancierte mit einen Wortspiel auch, das Publikum solle dann "GET AMPED" werden, was ein Wink auf die kommende GPU-Architektur zu sein scheint: Ampere. Das Unternehmen war ja im März noch bemüht, die GTC 2020 in irgendeiner Form zu retten, indem man die Veranstaltung nicht komplett absagte, sondern in eine reine Online-Show verwandelte. Nur das mit der großen Pressekonferenz klappte dann nicht mehr...



>>> Hier die gesamte News lesen <<<
 
Wäre natürlich ein Witz, wenn Mr. Huang nach dem - imho plumpen - Teaser dann nix zu Ampere sagen würde 😁 Ich bin mal gespannt, wann die Karten dann letztendlich auch kaufbar sein werden. Ob das noch 2020 gelingt?
 
Die Bröckchen Taktik für maximalen Hype gibts ja leider hüben wie drüben.

wird Zeit das NV mal einen offiziellen Zeitrahmen setzt ,mein Hauptsystem braucht eine neue GPU.
 
Das wird Data Center, maximal noch Quadro als Ankündigung, aber erst mal nix für den Consumer. Und das ist auch gut so. Wenn die ganze Fuhre läuft, macht man dann wenigstens nicht den Beta-Hasen :D
 
Spannend wird es sicher, vor allem der Strom der Massen um die frohe Kunde zu vernehmen.

Schlechte Wortspiele mal beiseite, hoffe auch auf ein paar interessante Details und nicht das Ampere nur der Decknahme für die umgesetzte elektrische Leistung ist ;)
 
Ich bin jedenfalls auch schon sehr gespannt. =) Auch wenn mich zu Data Center vor allem die Theorie interessiert, denn geshopped wird im Consumer-Regal. :D

NUR MEINE PERSÖNLICHE MEINUNG: in Sachen Innovation gibt's jedenfalls bei Nvidia durchaus immer mal wieder was zu bestaunen. Die Voltas z.B. waren schon echt krasse Biester - totale Nische, aber egal ob als Titan V oder Tesla: krasse Biester. :D

Außerdem treiben sie schon massiv das ganze Machine/Deep Learning Gedöns voran. Vor allem alles rund um NLP (und da wieder in der Sub-Kategorie "Text Analytics") ist für mich enorm spannend. Dummerweise klappt das mit dem un-supervised learning noch nicht so richtig wie ich das bräuchte... ;)

Turing war dagegen in meinen Augen nur "ganz nett". Vor allem in der Rückschau: erst dachte ich, Turing könnte wieder so ein Meilenstein werden wie 2016 (daher hab ich auch sofort den "Vorbesteller-Kaufen-Button" geklickt). Aber die Power von den Dingern kommt halt leider immer noch nicht so richtig in der Praxis an. Gebe gerne zu, dass ich da ein wenig auf dem Hype-Train mitgefahren bin - aber immerhin nicht als selbst hypender sondern eher als "gehypter". ;)

Das Highlight war für mich bisher die GTC 2016 (da war ich zum Glück sogar vor Ort), seitdem warte ich mal wieder auf einen vergleichbaren Meilenstein / großen Wurf.

Dummerweise ist Turing mit 4K ja leider noch nicht da, wo man's bräuchte. Also bleibt einem irgendwie kaum etwas anderes übrig, als den nächsten Performance-Kronen-Träger mitzunehmen - egal ob der jetzt von NVIDIA oder AMD kommt... :( Gut, man kann auch noch warten, aber da bin ich bei Grafikkarten in Sachen Geduld dummerweise nicht älter als 4 Jahre... na gut, vielleicht 6 oder 7 (kann ja schließlich schon lesen)...
 
Zuletzt bearbeitet :
@Igor, Gang- oder Fansterplatz?

Und nicht aufs WLAN im Zug vergessen^^



Im Ernst, schau ma mal wies wird, und was an RT-Rechenleistung dazukommt.
 
Vor allem das berühmte WLAN-Kabel nicht vergessen!
 
Damit habe ich mein Mainboard und vorallem die GPU angeschlossen, damit das bling blin richtig wirkt :love:
 
PCIE geht bei mir über Funk. Hab die Wakü-Antenne zweckentfremdet.
 
@Besterino hoffe du hast deine Wakü mit Grander Wasser aufgefüllt, damit die Strahlen kompensiert werden :giggle:
 
Wenn Consumer angeschnitten wird, dann wird es da eher nichts spannendes geben. Umstieg auf 7nm, RTX wird ausgebaut bzw. verbessert, ebenso alle anderen Features die 2018 auf der Gamescon beworben wurden. Leistung wird um X% gesteigert und dem einher werden dann auch die Preise wieder um X% gesteigert. Wer da als Consumer mehr erwartet, der wird danach schon sehr enttäuscht sein.

Aber hey vielleicht überrascht uns nVidia ja.
 
Das isn Antennenkabel...
 
eh, aber als wlan kabel vermarktet, von ner deutschen firma^^

igor könnte wahrscheinlich zu fuß hin^^
 
Wenn Consumer angeschnitten wird, dann wird es da eher nichts spannendes geben.
Aber hey vielleicht überrascht uns nVidia ja.

Für mich reicht 4K inkl. Raytracing in flüssig aus. Das ist für mich spannend genug. Vor allem die Preisgestaltung.
 
@grimm : RT mit wievielen Strahlen, Lichtquellen und Strahlumlenkungen(also zB. Sonne=>Pfütze=>Fenster=>Spielfigur)?
 
So, dass es realistischer aussieht. Raytracing ist mir eigentlich egal. Aber wenn man dafür zahlt, dann soll es bitte auch zünden
 
Und das wirst du auch bekommen grimm. Jedenfalls wird das der Weg sein, den nVidia mit der neuen Generation gehen wird. Ist halt nicht spannend, aber ein Schritt nach vorne.

Wobei mich der größte Realismus nicht von den Socken haut, wenn es massiv Leistung kostet. Dann lieber auf etwas Realismus verzichten und die Strahlen sind nicht ganz physikalisch korrekt, aber die GPU zeigt Leistung.


@gerTHW84
Doch von AMD kann man da wirklich etwas spannendes erwarten. Nämlich wie sie RT in ihre GPU Struktur einbinden werden. Und ob und wie gut oder schlecht es funktionieren wird. nVidia hat es mit Turing vor gemacht und einen bestimmten Weg gewählt. Jetzt muss AMD zeigen, das sie auch RT können und dies eben entweder mit demselben Weg, oder mit einem anderen. Das ist schon spannend.
 
Oben Unten