AI/KI News Professional

Synopsys präsentiert die nächsten Generation des KI-Chipdesigns – Wo der Mensch keine Chance mehr hat | Hot Chips 2021

Die Halbleiterindustrie erfreut sich eines steigen Wachstums, obwohl ein Mangel an Chips mittlerweile alles vom Auto bis zum Küchengerät plagt. Doch während die Chips selbst immer schneller und intelligenter werden, hat sich der Prozess der Chipentwicklung selbst in den letzten 20 Jahren nicht wesentlich verändert. In der Regel dauert es 2 bis 3 Jahre, einen Chip mit einem großen Ingenieurteam zu entwerfen und es kostet Dutzende oder Hunderte von Millionen Dollar, einen Chip von der Idee bis zur Fertigung zu bringen.

Doch kündigt sich der Wandel in Form von künstlicher Intelligenz an, die vor kurzem erhebliche Verbesserungen bei der Optimierung von Layouts für Stromverbrauch, Fläche (Kosten) und Leistung gezeigt hat. Mit Hilfe eines auf Reinforcement Learning (RL) basierenden Ansatzes, ähnlich dem, der 2016 den GO-Weltmeister besiegt hat, gab Samsung bekannt, dass man jetzt einen Chip aus der Fabrik zurückbekommen haben, der mit der DSO.ai-Plattform von Synopsys optimiert wurde. Soweit bekannt, ist dies auch der erste funktionierende Chip der Branche überhaupt, dessen Layout von KI entworfen wurde.

Synopsys geht davon aus, dass nunmehr ein großer Teil der Halbleiterindustrie anfangen wird, diese KI-Plattformen zu nutzen, denn die Auswirkungen sind einfach zu groß, um sie zu ignorieren. Tatsächlich ist der EDA-Anbieter Cadence Design Systems kürzlich dem Beispiel von Synopsys gefolgt und hat KI-Tools eingeführt, die Leistung, Stromverbrauch, Kosten und Design drastisch verbessern können. Mit der Unterstützung von Designteams, die bessere Chips in deutlich kürzerer Zeit produzieren, lässt sich nämlich auch viel Geld verdienen. Nachfolgend habe ich für Euch noch die Folien der heutigen Präsentation, bevor wir noch etwas tiefer ins Thema einsteigen wollen:

Obwohl Synopsys einen Vorsprung von mindestens 16 Monaten gegenüber der Konkurrenz zu haben scheint, geht das Unternehmen jetzt bereits den nächsten Schritt und hat in einer Grundsatzrede vor den Teilnehmern der jährlichen Hot Chips-Konferenz die Visionionen des Unternehmens veranschaulicht. Synopsys plant den Einsatz neuer KI, um neben den bereits mit DSO.ai realisierten Aspekten des physikalischen Designs auch andere Elemente des Workflows zu optimieren. Die Ergebnisse könnten die Branche durchaus verändern, denn diese Fortschritte sind ein weiterer Baustein in einer reichhaltigen Wertschöpfungskette, die es noch zu erschließen gilt.

Der Technologieansatz, den Synopsys bei “Place and Route” verwendet hat, wude mittlerweile von NVIDIA, Google und seit kurzem auch vom Konkurrenten Cadence Design Systems aufgegriffen. Die von NVIDIA und Google durchgeführten Forschungsarbeiten sind dabei recht vielversprechend. Man vermutet, dass die meisten Halbleiterunternehmen bald KI einsetzen werden, um die Qualität und die Markteinführungszeit zu verbessern, während diejenigen, die dies nicht tun, ins Hintertreffen geraten dürften.

Ein Blick auf die Abbildung oben zeigt, dass die Arbeit von NVIDIA und Google, die sich auf das Floorplanning (roter Kreis) konzentrierte, die Leistung, Fläche und Frequenz ihrer Chips im Vergleich zu dem, was die Designer durch manuelles Experimentieren erreichen konnten, erheblich verbesserte. Das Floor-Planning ist schließlich eines der vielen NP-schweren Probleme in der EDA und kann aufgrund des großen Suchraums potenzieller Lösungen nicht analytisch gelöst werden. Je nach Ansatz kann diese Suche eine unglaubliche Menge an Rechenleistung erfordern. Während beim GO-Spiel 10360 mögliche Züge ausgewertet wurden, gibt es beim Chip-Design 1.090.000 Möglichkeiten für die Platzierung und Verlegung. Aber das physikalische Design stellt nur die Spitze des Eisbergs dar, wenn es um Optimierungsbereiche geht. Synopsys möchte die Möglichkeiten in Betracht ziehen, die sich ergeben, wenn man den Blick auf einen größeren Teil des Designprozesses richtet. Wenn die Vision von Synopsys richtig ist, und davon ist man dort überzeugt, stehen wir an der Schwelle zu einer Revolution im Chipdesign.

Kann die KI den Menschen ersetzen?

Synopsys und verschiedene Forscher glauben, dass in Zukunft viele weitere Aspekte des Designs durch KI unterstützt werden. Durch die gleichzeitige Anwendung von KI-Optimierung auf allen drei Design-Achsen konnte Synopsys eine interessante Fall-Studie präsentieren die zeigt, dass der Stromverbrauch durch den Einsatz von KI im gesamten Designbereich erheblich gesenkt werden konnte. Die Optimierung der ersten Domäne (Geometrie) mit dem DSO.ai-Produkt der ersten Generation von Synopsys kann den Stromverbrauch um bis zu 5 % im Vergleich zu dem reduzieren, was ein Designteam ohne KI erreichen könnte.

Hier kommt die Technologie der zweiten Generation ins Spiel: Durch Hinzufügen der strukturellen Exploration zur Geometrie, d. h. durch die gleichzeitige Erkundung verschiedener architektonischer Auswahlpunkte und zugehöriger physikalischer Layouts für jeden dieser Punkte, kann der Stromverbrauch um weitere 13 % reduziert werden. Schließlich wendet sich die KI dem Verhalten zu und nutzt die Software-Workloads selbst, um den Stromverbrauch des Chips – wiederum gleichzeitig mit Architektur und Layout – um weitere 10 % zu optimieren. Nimmt man alles zusammen, könnte man den Stromverbrauch um fast unglaubliche 26 % senken, verglichen mit dem besten Ergebnis eines talentierten Chipdesigners.

Traditionelle Planungsansätze beschränken die Interaktion auf aufeinander folgende Schritte in einem weitgehend linearen Arbeitsablauf. Der architektonische Entwurf diktiert den strukturellen Entwurf, der dann eine Rückkopplungsschleife zum Architekturteam bilden kann. In ähnlicher Weise bestimmt der strukturelle Entwurf die Anforderungen an den logischen Entwurf. Probleme und Möglichkeiten, die bei der Auswahl des Logikdesigns aufgedeckt werden, können die Abwägung mit dem Strukturteam beeinflussen, und so weiter. Dieser Ansatz, der in der Halbleiterindustrie gut verstanden und angenommen wird, schränkt die Optionen ein, die für den gesamten Chip in Betracht gezogen werden, und begrenzt folglich das Ausmaß der in Betracht gezogenen Optimalität.

Der Ansatz von Synopsys ersetzt dieses Modell im Wesentlichen durch einen ganzheitlichen Designansatz, der durch KI unterstützt wird. Synopsys verweist auf einen neuen “Cyclone”-Ansatz, der im Wesentlichen einen Zyklus von gleichzeitig bewerteten Designoptionen schafft. Diese “Optionalität” speist eine breite Palette von Lösungen, die gleichzeitig mit KI modelliert werden, um die Auswirkungen auf Leistung, Stromverbrauch und Die-Fläche zu bewerten. Dieser Ansatz, bei dem Synopsys Pionierarbeit geleistet hat, scheint zu besseren, global optimierten Ergebnissen zu führen (geringerer Stromverbrauch, höhere Leistung, geringere Die-Größe). Der eigentliche Vorteil des neuen Ansatzes für Halbleiterunternehmen liegt jedoch in der deutlich reduzierten Entwicklungszeit. Mit der weiteren Implementierung und Verfeinerung des Ansatzes ist zu erwarten, dass immer mehr Designteams das Potenzial der KI-Designunterstützung nutzen werden.

Die Software frisst die Welt, aber es ist die KI, die jetzt die Software frisst. Da immer mehr Softwareanwendungen datengesteuert werden und neuronale Netze bereits die Billionen-Neuronen-Marke überschreiten, stellt sich die Frage, wie die Halbleiterindustrie die für die KI erforderlichen Petaflop-Monate an Rechenleistung vom Rechenzentrum bis zum Endgerät bereitstellen soll. Software-definierte Hardware wurde von Branchenkennern als elegante Lösung vorgeschlagen. Sie basiert auf der Prämisse, dass Chips an die Bedürfnisse bestimmter Anwendungen angepasst werden können, indem Software die direkte Kontrolle über die Befehlssatzarchitektur (ISA), die Chipstruktur (Mikroarchitektur) und die Implementierungsmethode (Siliziumtechnologie) erhält. Die Personalisierung von Chips könnte eine 1.000-fach bessere Leistung und Energieeffizienz bringen, aber hier liegt das Problem: Es dauert derzeit 2 bis 3 Jahre, bis eine neue Idee in einen tatsächlichen Sockel umgesetzt wird.

Die KI könnte die Antwort sein. KI-gesteuerte Designsysteme haben die Produktivität erhöht, um monatelange Designaufgaben auf wenige Tage zu verkürzen. Mit der bevorstehenden globalen Optimierung auf Systemebene könnte man in der Lage sein, neue, personalisierte Chips in nur wenigen Wochen zu entwickeln. Mehr KI im Designprozess könnte in der Tat die Ausweitung des Konzepts der softwaredefinierten Hardware auf softwaredesignte Hardware ermöglichen, was es sowohl möglich als auch wirtschaftlich attraktiv machen würde, viele verschiedene Arten der Beschleunigung zu liefern, um den Anforderungen der kompliziertesten Anwendungen gerecht zu werden.

Source: Synopsis

Lade neue Kommentare

B
Besterino

Urgestein

5,292 Kommentare 2,181 Likes

Danke!

"Visionionen"? "1090.000" (entweder ein Punkt zu viel oder einer zu wenig). ;)

Und: yay, Skynet! :D

Antwort 2 Likes

Igor Wallossek

Format©

5,749 Kommentare 8,919 Likes

Mit noch'm Punkt. Den hatte die AI übersehen :D

Antwort 2 Likes

RedF

Urgestein

1,472 Kommentare 544 Likes

Genau Skynet war mein erster gedanke :geek:

Antwort 1 Like

B
Brati

Mitglied

14 Kommentare 0 Likes

Bei der Résistance mancher Menschen sich anzupassen ist die KI unter Umständen die letzte Chance der Menschheit auf eine friedvolle, wenn auch weniger freie, Zukunft.

Antwort Gefällt mir

Case39

Urgestein

1,932 Kommentare 548 Likes

Bitte nicht. Leben ist mehr, als eine Abfolge von optimierten Abläufen.
Die Anwendung im Bereich des Chipdesigns ist natürlich optimal und wünschenswert.
Gibt es sowas auch in der Spielentwicklung?
Sollte ja zu weniger verbuggten Games führen.

Antwort 1 Like

?
?Un-d-nU?

Neuling

4 Kommentare 3 Likes

Bisher ist da nicht wirklich was zu sehen. Es gibt natürlich unmengen von Scannern die Dir die Interaktionen deines Programms in Echtzeit anzeigen und die via ML auf (meist korrekte) Abläufe schließen, da aber die Interaktionsmöglichkeiten in Spielen so unglaublich komplex sind, sind dort nach wie vor Fehler nicht ausgeschlossen. Denn man muss die ganzen Interaktionen ja auch ausführen, damit man dann sehen kann ob diese auch korrekt verarbeitet werden. Und von ML das Spiele spielt um dann quasi als "Explorative Tester" das komplette Spiel zu durchforsten habe ich noch nichts vernommen.
Das wird wohl auch viel zu teuer. Denn Du musst die ML-Umgebung ja jedesmal auf das neue Spiel anlernen.
... wobei ... also bei so Dauerläufern wie CoD und so'n Zeuch könnte ich mir das glatt vorstellen. Da ändert sich ja im Wesentlichen nie was. :ROFLMAO:

Antwort 2 Likes

Klicke zum Ausklappem
LurkingInShadows

Veteran

450 Kommentare 130 Likes

Das fertig gelernte Test-Programm dann aber nicht leaken lassen!
Oder doch? Wär sicher witzig in nem Live Stream der KI beim Schlachten der Pro-Player zuzuschauen, und das Thema E-Sports als Sportdisziplin wäre auch durch.

Antwort 2 Likes

B
Betabot

Neuling

6 Kommentare 2 Likes

Wieso? Profi-Schach existiert doch auch noch.

Antwort Gefällt mir

RedF

Urgestein

1,472 Kommentare 544 Likes

Zumindest bei FPS dürfte die Reaktionszeit selbst des besten Profis nicht gegen eine KI ankommen.

Antwort Gefällt mir

B
Betabot

Neuling

6 Kommentare 2 Likes

Und selbst die besten Profis haben keine Chance gegen einen Schach Computer, das heißt ja nicht das Mensch gegen Mensch nicht spannend sein kann.

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung