Nvidia Cuda: Ersetzt der Grafikchip bald die CPU?

Alles rund um Nvidia-Grafikkarten

Moderatoren: coolmann, Aero_Kool, Lunatix

Benutzeravatar
schmidtsmikey
Site Admin
Beiträge: 8969
Registriert: 08.12.2003, 21:50
Wohnort: Hamburg
Kontaktdaten:

Nvidia Cuda: Ersetzt der Grafikchip bald die CPU?

Beitragvon schmidtsmikey » 20.06.2008, 06:14

Es ist heutzutage eine Selbstverständlichkeit: die CPU berechnet "allgemeine" Aufgaben und der Grafikchip (GPU) ist für 3D-Berechnungen zuständig. Die Kollegen von Tomshardware.de haben nun aber einen ausführlichen Artikel verfasst, der das mögliche Ende der CPU prophezeit. Moderne Grafikkarten sind mittlerweile so komplex, dass sie auch für andere Rechenaufgaben als pure 3D-Berechnungen verwenden werden und somit theoretisch die CPU ersetzen können. Dies ist eine Horrorvorstellung für die Prozessorhersteller AMD und Intel, denn somit kommt die Konkurrenz nicht von irgendeinem Dritthersteller wie beispielsweise VIA, sondern von den führenden Grafikchipherstellern. Aber es wird jetzt vielleicht ein wenig deutlicher, warum AMD damals ATI aufgekauft hat.

Das Problem heutiger Prozessoren im Vergleich zu Grafikchips ist, dass sie nicht annähernd so viel Transistoren besitzen wie Grafikchips. Außerdem können Prozessoren nicht mehr ohne weiteres höher getaktet werden, da Technologie mittlerweile ziemlich am Maximum läuft. Auf Tomshardware.de ist folgendes zu lesen:

[...]
Waren die Benutzer zuvor jahrelang in den Genuss immer höherer Taktfrequenzen gekommen (zwischen 2001 und 2003 verdoppelte sich die Taktfrequenz des Pentium 4 von 1,5 auf 3 GHz), müssen sie sich plötzlich damit abfinden, dass die Hersteller nur noch mit größter Mühe ein paar zusätzliche MHz herausholen können (zwischen 2003 und 2005 stieg die Taktfrequenz von 3 auf 3,8 GHz).
[...]


Warum übernehmen Grafikchips heutzutage nicht schon allgemeine Rechenaufgaben? Das liegt daran, dass die GPU und CPU Befehle unterschiedlich verarbeiten und einer GPU erst beigebracht werden muss, die Befehle ähnlich einer CPU zu berechnen. Die GPU muss programmierbar sein, was seit dem NV20 der Fall ist.

[...]
Diese beiden Welten kommen also lange Zeit überhaupt nicht miteinander in Berührung: Man arbeitet mit einer (oder mehreren) CPUs, und die GPU wird nur verwendet, wenn es um die rasche Erzeugung schöner Bilder geht. Doch dann kommt der Tag, an dem all das auf den Kopf gestellt wird: Es ist der Tag, an dem die GPU plötzlich programmiert werden kann. Wieder einmal besteht anfänglich überhaupt kein Anlass, sich um die CPU zu sorgen, denn die ersten GPUs, die offiziell als „programmierbar“ bezeichnet werden (NV20, R200), stellen bei weitem keine Bedrohung für die CPUs dar. Die Zahl an Instruktionen für ein Programm bleibt weiterhin auf etwa zehn begrenzt, und diese arbeiten mit eher exotischen Datentypen: 9 oder 12 Bit mit Festkommastelle.
[...]


Sind wir mal gespannt, was die Zukunft bringt. Den ganzen Artikel auf Tomshardware.de kann man hier lesen:
http://www.tomshardware.com/de/CUDA-Nvi ... 40065.html

Zurück zu „Nvidia“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast