|
Grenzen des von Neumann-Prinzips
Das Prinzip der Mindesthardwareanforderungen für von Neumann-Rechner war gerechtfertigt, solange die Hardwarekosten der Rechner sehr hoch waren und die optimale Speicherausnutzung das wichtigste Konstruktionsziel war.
Die Kosten spielten jedoch nur noch eine untergeordnete Rolle in der Computerproduktion und der einfache Verbindungsaufbau zwischen Speicher und Prozessor, durch den alle Daten und Befehle transportiert werden mussten, führte zu einem Engpass, der von Neumann-Engpass genannt wird (Die von Neumann-Architektur, die auch als von Neumann-Modell und Princeton-Architektur bekannt ist, ist eine Computerarchitektur, die auf der 1945 vom Mathematiker und Physiker John von Neumann und anderen im ersten Entwurf eines Berichts über die EDVAC beschrieben wurde). Auch die Ausführung der Befehle im Prozessor war viel schneller, als der Zugriff auf den Speicher möglich war.
Es gab auch Probleme bei der Ausführung der höheren Programmiersprachen. Diese getrennten Befehle von Daten, aber von Neumann-Rechner hatten nur einen Speicher für beide, noch höhere Sprachkonstrukte (z.B. Prozeduren) oder mehrdimensionale Datenstrukturen (wie Listen oder Bäume ) kamen in Konflikt mit der linearen (Linearität ist die Eigenschaft einer mathematischen Beziehung oder Funktion, d.h. sie kann als gerade Linie grafisch dargestellt werden) Speicherorgani
sation. Dies führte zu langen Programmlaufzeiten und, da der Konflikt zwischen Programmiersprache und Systemarchitektur, die so genannte semantische Lücke, durch Software beseitigt werden musste, zu umfangreicheren Programmen.
Die Probleme und Engpässe des von Neumann-Prinzips mussten daher beseitigt und der Parallelrechner (Parallel Computing ist eine Rechenart, bei der viele Berechnungen oder die Ausführung von Prozessen gleichzeitig durchgeführt werden) Architektur (Computerarchitektur ist ein Regelwerk, das die Funktionalität, Organisation und Implementierung von Computersystemen beschreibt) (angewendet auf Transputer) entwickelt werden. Transputer (ein Kunstwort (Simulation ist die Nachahmung des Betriebs eines realen Prozesses oder Systems über die Zeit) bestehend aus?trans? und Computern) haben die Möglichkeit, Computersysteme parallel zu schalten, so dass die Leistung aus der Summe aller angeschlossenen Komponenten resultiert. Die Prozessoren sind auf einem normalen Chip untergebracht. Zusätzlich sind die sehr schnellen Speicher in diesen Systemen für Befehle und Daten getrennt. In den neuen Computern seit den neunziger Jahren, ob Pentium, Athlon oder andere Computersysteme, wird das ursprüngliche von Neumann-Prinzip nicht mehr verwendet.