Computer Modell Katalog
 

CPU / Prozessorenübersicht :
 

CPU steht als Abkürzung für die englischen Worte Central Processing Unit - zu deutsch "zentrale Prozess Einheit". Arbeiteten frühere Rechenautomaten mit dem Dezimalsystem, sprich basierend auf der 10 - entwickelte Konrad Zuse im politisch isolierten Deutschland der 30er Jahre und Howard H. Aiken in den USA unabhängig voneinander ein Konzept auf Basis des Dualsystems (0 und 1). Wobei die ersten Rechenautomaten von Zuse, sowie auch Aiken auf dem dekadischen Zählrad basierten (Aikens Mark- I Rechenautomat war eine riesenhafte Maschine mit über 700000 Einzelteilen, 3000 Kugellagern und 80 Kilometern Leitungsdraht und füllte eine über 15 m lange und fast zweieinhalb Meter hohe Wandfläche). Eine Additionstakt dauerte 0,3 Sekunde, eine Multiplikation zweier zehnstelliger Zahlen ca. 6 Sekunden und eine Division etwa 11 Sekunden. Im Vergleich dazu berechnet bereits ein Mikroprozessor der 8086 Generation (Ende der 70er Jahre) im Mikrosekundenbereich.
Einen enormen Auftrieb erhielt die Technik der Datenverarbeitung, als man begann, die hohen Schaltgeschwindikgeiten von Elektronenröhren für das automatische Rechnen auszunutzen. Bereits seit 1919 war bekannt, dass sich zwei Trioden zu einem bistabilen Schaltelement zusammenschalten lassen. Dieses Schaltelement wird entweder nach seinen Erfindern "Eccles-Jordan-Schaltung" oder auch kurz "Flip-Flop" genannt. Es dauerte jedoch rund 25 Jahre, bis man ernsthaft daran dachte, Röhrenschaltungen in Rechenautomaten einzubauen. Der Übergang zu dieser Technik bildet die Grundlage der heutigen, modernen Prozessorentwicklung. Da der Übergang zur Transistortechnik und zu Monolith-Schaltung jeweils nur als Optimierung der oben genannten Systems zu verstehen sind.
Die ersten digitalen Rechenautomaten enthielten als Rechenelemente in der Hauptsache mechanisch betriebene Zählräder und elektromechanische Relais mit Schaltzeiten von einigen Millisekunden. Dann folgten, beginnend mit ENIAC von Eckert und Mauchly, die Elektronenröhren mit Schaltzeiten im Mikrosekundenbereich.
Mitte der 50er Jahre begannen Transistoren und Dioden die Elektronenröhre abzulösen. Transistoren zeichnen sich durch kürzere Schaltzeiten, kleinere Abmessungen und geringere Verlustleistungen (in Form von Wärme) aus. Zunächst montierte man die Transistoren als Einzelkomponenten zusammen mit den übrigen Schaltkomponenten wie Widerstände und Kondensatoren auf Schaltkarten und lötete sie in die Schaltung ein. Die Weiterentwicklung führte dann zu immer kleineren Abmessungen. Bei der "hybriden" Technik, Anfang 1964 eingeführt, wurden zwar immer noch diskrete Schaltelemente verwendet, die Transistoren und Dioden waren aber bereits zu 0,5 Quadratmillimetern kleinen Siliziumplättchen zusammengeschrumpft. Diese Plättchen waren mit 3 bzw. 2 winzigen Anschlusskugeln versehen, mittels derer man sie auf die Leiterzüge der elektrischen Schaltverbindungen eines Keramikträgers auflötete. Ende der 60er Jahre gelang es schließlich mit wirtschaftlich vertretbaren Prozessen, sämtliche Einzelkomponenten nebst den elektrischen Verbindungsleitungen in das Innere des Siliziums zu verlegen, sie in den Festkörper "hineinzuintegrieren" -> der Prozessor war geboren. Die Folgen dieses Miniaturisierungstrends elektronischer Schaltelemente waren im Endeffekt kleiner werdender Raumbedarf bei gleichzeitigem Anstieg der Verarbeitungsgeschwindigkeit.
In der Entwicklungsgeschichte der Datenverarbeitung spielt das Jahr 1974 eine ganz besondere Rolle, da es Ingenieuren der amerikanischen Intel Corp. gelang mehrere Transistorfunktionen [ermöglichen logische Schaltungen] in einen integrierten Schaltkreis zu vereinen. Da für diese neue Technik lediglich ein Bauteil benötigt wurde, im Gegensatz zur Elektronenröhre oder dem Transistor - für deren logische Verschaltung mehrere Bauteile nötig waren, nannte sich diese Technik "Monolith-Technik". Der damals erschienene Intel 4040 Prozessor arbeitete mit eine "Breite" von vier Bit, sprich eine Informationseinheit konnte aus vier 0 oder 1 bestehen. Der Prozessor verfügte über vier Register, Orten in denen Zahlenwerte eingespeichert wurden und einen relativ geringen Befehlssatz, z.B. Addition, Subtraktion, Quadrierung etc. - wobei die CPU alle Aktionen auf die Addition reduzieren muss [ein System was auch noch heute gilt], da die CPU lediglich 0 oder 1 addieren kann.
Mit den Jahren wurde die Bitbreite und die Taktfrequenz (Anzahl der Operationen der CPU in einer Sekunde) sowie der Befehlsatz erweitert. Wobei bei letzteren zu Beginn der 90er Jahren ein Trend der Reduktion einsetzte [die RISC Technologie]. Grundsatz der RISC Technologie ist die häufig benutzten Befehle möglichst schnell abarbeiten zu können und die weniger oft benutzten Befehle durch Kombinationen der häufigen Befehle aufzugliedern - auf dieser Basis arbeiten zum Beispiel die Transputer, die Motorola/IBM 60x Serie und Motorolas G3 - wobei auch die gängigen Intel 80586 und 80686 Prozessoren auf RISC aufbauen, dies jedoch in Kompatibilität zu den Vorgängern nicht voll ausnutzen.
Ende der 70er Jahre bis Mitte der 80er Jahre hatten die 8-Bit Prozessoren, zum Beispiel der Z80 der Firma Zilog, der 6502 von MOS und der 8080 von Intel ihren Höhepunkt. Sehr viele Computersysteme wurden auf diesen Prozessoren aufgebaut und zum Teil als so genannte "Homecomputer" als Komplettlösung auf den Markt gebracht. Die Rechenleistung dieser System war ausreichend für meisten anfallenden Arbeiten und ermöglichten auch die Entwicklung von Computerspielen, die besonders bei den jüngeren Anwendern zum Haupteinsatz wurden. 1981 wurde vom Marktführer IBM eine Entwicklungsgruppe beauftragt ein modulares System für den "persönlichen Einsatz" (Personal Computer) zu entwickeln, am Abschluss der Arbeit war der auf dem 16-Bit INTEL 8086 basierende IBM PC markttauglich und begann einen Siegeszug durch die Computerwelt, obwohl einige Details dieser Architektur als "fehlerhaft" zu bezeichnen waren. IBM sicherte sich durch Lizenzabkommen auf lange Jahre seines Marktposition, ermöglichte es jedoch anderen Unternehmen Hardware für diese Rechnergeneration zu entwickeln. Der Prozessor - Hersteller INTEL produzierte ein Jahr später einen günstigeren, aber 100% kompatiblen Prozessor mit Bezeichnung 8088. Dieser Prozessor arbeitet intern mit einer Breite von 16-Bit, externe Speicherzugriffe werden jedoch nur mit 8-Bit durchgeführt, so daß zwei Taktzyklen notwendig sind um die entsprechenden Daten zur Verarbeitung bereitzustellen.
Die nachfolgende Modell 80286 (der 80186 fand kaum Verbreitung) wurde um einen Betriebsmodus erweitert, in dem es dem Prozessor möglich ist einen größeren Speicher und mit neuen Befehlen zu arbeiten. Im "Real-Modus" verhält sich der 80286 jedoch wie ein 100% kompatibler 8086 Prozessor mit höherer Taktfrequenz. Mit der Entwicklung des 80386 wurde ebenfalls ein neuer Betriebsmodus vorgestellt, indem der Prozessor mehrere virtuelle 8086 Prozessoren generiert und diese pseudosynchron arbeiten lässt.
Die wesentliche Erweiterung der 386er, der 32-Bit Modus kann nur von speziell dafür entwickelter Software verwendet werden. Seinerzeit stand jedoch lediglich OS/2 als 32-Bit Betriebssystem bereit. Dieses von Microsoft entwickelte Betriebssystem, welches später komplett an IBM abgetreten wurde, konnte sich jedoch bis heute nur im Bankensektor retten. IBM selbst schaffte es kaum, OS/2 im Privatsektor zu etablieren - dort verbreitete sich das Windows 3.x System, welches als 16-Bit Software die neuen Fähigkeiten des Prozessors kaum ausnutzen konnte (aus die Win-32s Erweiterung half da nicht viel).
Im Bereich der Netzwerksysteme konnte dem 80386 schneller ein passendes, leistungsfähiges Betriebssystem entwickelt werden (z.B. Windows NT und Novell Netware).
Die von Intel entwickelten Folgemodelle : 80486 in SX und DX Versionen, 80586 Pentium verfügten über den gleichen Befehlssatz, wie der 80386 und waren somit lediglich beschleunigte Versionen [wobei sich im Sinne der Architektur einiges veränderte]. Erst die MMX Erweiterung brachte Veränderungen im Befehlssatz der x86 Klasse mit sich (dazu weiter unten).
Die Firma Motorola konnte sich in der 8-Bit Ära mit dem MC6800 gut behaupten und produzierte Anfang der 80er Jahre den MC68000, einen 16/32 Bit Prozessor, der extern mit 16-Bit auf die übrige Umgebung zugriff, intern jedoch mit 32-Bit arbeitete. Auf Basis dieses Prozessors wurden die Apple Macintosh, Atari ST und Commodore AMIGA Computer entwickelt und waren sehr leistungsfähige Maschinen, die über ein Multitasking fähiges Betriebssystem die Epoche der grafischen Betriebssysteme einläuteten. Die Folgemodelle des MC68000, der MC68020 bis MC68060 basieren auf dem stetigen Ausbau des Befehlssatzes, der Speichergröße und der Taktfrequenz. Wie oben bereits erwähnt, gilt der 601 Prozessor von Motorola (in Zusammenarbeit mit IBM) als wirkliche Weiterentwicklung. Im Gegensatz zum x86 basierenden INTEL Markt, hatte Motorola auf dem 68xxx Markt nie mit einer Konkurrenz zu kämpfen. Leistungstechnisch liegen die Entwicklungen von INTEL und Motorola sehr dicht beieinander.
Allein durch die Erhöhung der Taktfrequenz und der Erweiterung der Bitbreite konnte die Leistung von CPUs kaum noch erhöht werden, da sich im alltäglichen Gebrauch immer neuere Flaschenhälse zeigten :

- die Geschwindigkeit der grafischen Ausgabe
- die Bereitstellung von Daten zu Berechnung (Speichergeschwindigkeit)

Bei Auslastungstest zeigte sich, dass der Zentralprozessor große Zeiten auf Daten wartet, so wurden dem Prozessor eigene Speicherbereiche eingefügt (Level One Cache Memory), um auf Daten schneller zugreifen zu können. Mit Hilfe eines komplexen Algorithmus werden Daten aus dem Hauptspeicher in den Cache-Speicher vorgelesen, die Trefferquote dieser "Cachetechnologie" liegt erstaunlich hoch. Diesem "Level One" Cache, der anfangs nicht mehr als einige Byte betrug, wurde mit den Jahren ein "Level Two Cache" vorgeschaltet - beim AMD K7 wird der vorhandene L2-Cache sogar zu einem L3-Cache reduziert. 
Mit der Entwicklung des Pentium III ging Intel sogar noch einen Schritt weiter und optimierte die Abfolge der wahrscheinlichen Befehle, indem die Daten über eine besonders schnell arbeitende "Pipeline" transportiert werden. Solche tief greifende Veränderung der Prozessorarchitektur führen unweigerlich zu Kompatibilitäts- Problemen in der Zukunft. Während die Erweiterung um die "MMX" Befehle, 1996 von Intel entwickelte Befehle speziell für den Bereich Multimedia ausgelegt, keine größeren Probleme im Sinne der Kompatibilität aufwarf, wird sich zeigen, ob "ISSE" (so der Name der neuesten Intel Entwicklung) nicht zu größeren Problemen führen wird. Während die ebenfalls aus den USA stammende Firma AMD mit der "3d Now!" Erweiterung einen flexibleren Weg wählte, da ein "nicht 3Dnow!" Prozessor mit entsprechender Software den verwendeten Befehl in einzelne Standardbefehle zerlegen kann.
Während es auf dem 80x86-Kompatiblen Markt ein hartes Konkurrenzgebahre um die höchsten Verkaufszahlen gibt [es standen sich Ende der 90er Jahre Intel, AMD, IBM, Cyrix, Rise, IDT und andere Unternehmen im Ring] geht es auf dem High- End- Markt wesentlich beschaulicher und ruhiger zu. Der Alpha-Prozessor gilt Jahr für Jahr als der schnellste Prozessor für Workstation und auch Motorolas G3 Serie konnte sich in Messungen (Benchmarking) erneut gut behaupten. 
Während bis Anfang der 80er Jahre der Trend dahin ging alle Funktionen der anfallenden Arbeiten möglichst in einen Prozessor einzubetten, geht man seit der Entwicklung des Commodore Amiga und Atari ST Computers auch auf dem regulären Computermarkt dazu über Grafikfunktionen auszulagern und durch einen gesonderten Grafikprozessor berechnen zu lassen - ohne das der Hauptprozessor dazu belastet wird.

Coprozessoren [FPU]

Anfang der 80er Jahre, als die 16-Bit Computertypen begannen das Licht der Welt zu erblicken, war die Entwicklung eines einzelnen Prozessors ein sehr kostenaufwendiger Prozess. So waren die ersten Prozessoren aus den x86 und 68x Serien nur mit einer relativ schwachen "Fließkommaeinheit" -> engl. Floating Point Unit [FPU] ausgestattet. Sprich aufwendige trigonomische Berechnungen mussten in viele Einzelschritte zerlegt werden, um vom Hauptprozessor berechnet zu werden. 
Um eine möglichst kostengünstige, allgemeine Lösung für alltäglichen Arbeiten zu schaffen, wurde auf den Einbau einer FPU verzichtet - ein freier Steckplatz auf dem Mainboard ermöglicht eine individuelle Aufrüstung durch den Benutzer. Im Bereich der x86 Prozessoren wurden mit dem 8087, 80187, 80287 und 80387 jeweils Coprozessoren für den passenden Hauptprozessor entwickelt. Der 80486SX ist ein 486er ohne FPU Einheit, der 80487 ist in Wirklichkeit ein vollwertiger 80486 Prozessor, der den SX abschaltet, sobald er in den Coprozessorslot eingesteckt wird. Bedingt durch die Veränderung der PINs (der kleinen Anschlussbeinchen) ist es jedoch nicht möglich, den 80487er direkt in einen üblichen 80486er Slot einzustecken.
Seit der 586er Pentium Generation verfügen alle Prozessoren der x86 Generation über eine eingebaute FPU, die jedoch - je nach Hersteller - unterschiedlich gut entwickelt wurde. Im Bereich der FPU ist die Firma Intel heute den Konkurrenten überlegen, gefolgt von AMD und IBM / Cyrix. Die IDT Centaur Prozessoren verfügen über eine nur schwach ausgebildete FPU, was jedoch in dem angebotenem Preissegment kein Wunder ist -> für die Zielgruppe der Firma IDT reichen die Leistungen jedoch vollkommen aus.
Heute profitieren vor allem Grafikprogramme und Spielprogramme der 3D Generation von einer starken Fließkommaeinheit.
Bei den 68xxx Prozessoren gibt es ein ähnliches Bild, für die Typen 68000, 68020 und 68030 wurde spezielle Coprozessoren entwickelt, die Typen 68881 bis 68882 , der 68040 wurde in der 68LC040 Version ohne FPU angeboten und kann durch einen vollwertigen 68040 ausgetauscht werden. Über die FPU Leistung der 68050 und 68060 Modelle liegen mir keine Informationen vor, da für populäre Computer lediglich Beschleunigerboards auf Basis dieser Prozessoren entwickelt wurden. Im Bereich der Apple Computer verfügen die Folgemodelle auf Basis des 60x bzw. G3 Prozessors alle über eine eingebaute FPU.

Hochtakten

In vielen Computermagazinen oder Newsgroups wird in den letzten Jahren viel über das wissentliche "übertakten" eines Hauptprozessors und seiner direkten Umgebung. In jedem anspruchsvollen Magazin wird vor dieser Methode der Beschleunigung, die zugegeben sehr günstig ist, gewarnt - da eine solche Maßnahme auf jeden Fall den Verlust der Herstellergarantie nach sich zieht und zum zweiten die Lebenserwartung eines Computers deutlich senken "kann".
Die Erfahrungen, die ich persönlich mit dem Übertakten gesammelt habe, sind durch die Bank positiv - wenn ein gewisser Rahmen eingehalten wird. Mit dem Wissen um das subjektive Gefühl einer Beschleunigung, weiß jeder Anwender, der einen Computer durch ein leistungsfähigeres Modell ausgetauscht hat, dass nur die Verdoppelung der Taktfrequenz zu einer spürbaren Beschleunigung führt. In den meisten Fällen, bringt eine Erweiterung des Arbeitsspeicher höhere, subjektive Beschleunigungswerte. Wie auch immer - ist eine bewusste Übertaktung einer CPU um 10 Prozent mit Sicherheit gefahrlos durchzuführen. Eine Beschleunigung von mehr als zehn Prozent sollte nur unter Einsatz von aktiven Kühlkörpern in Form von Lüftern etc. durchgeführt werden, da die entsprechende Hardware enormer Hitze ausgesetzt werden kann.
Sehr gute Erfahrung habe ich mit Modellen der 286er, 386er und 486er Klasse gemacht, bei denen auch eine Übertaktung von mehr als 20 Prozent ohne Kühlung auf Dauer (mehr als 12 Monate) ohne Probleme durchzuführen war. Einen Pentium mit 75 MHz aus dem Hause Intel habe ich ebenfalls mehrere Monate mit 100 MHz betrieben, ohne plötzliche Systemabstürze oder Anzeichen der Überhitzung - im letzteren Falle habe ich dem System einen neuen Lüfter verpasst.
Vor allem Intel- und kompatible Computersysteme lassen sich auf drei Methoden übertakten, im ersten Falle wird der Multiplikator des Bustaktes z.B. von 2.5 auf 3.0 erhöht - in der zweiten Methode wird der Bustakt allein erhöht, bei gleichzeitiger Absenkung des Multiplikators, die dritte ergibt sich aus den ersten beiden Methoden : Multiplikator hoch, Bustakt herunter. Zu dieser Theorie lassen wir nun ein Beispiel folgen :

Auf Ihrem Mainboard finden Sie mehrere Jumper (kleine Steckbrücken), der J-4 wird mit folgenden Stellungen beschrieben :

 
J4 : : |
J4 : | :
J4  | : :
Frequency Ratio x2.0
Frequency Ratio x2.5
Frequency Ratio x3.0

Eine weitere Steckbrücke mit der Bezeichnung J-8 wird wie folgt beschrieben :
 
J8 : : |
J8 : | :
J8 | : : 
25 MHz
30 MHz
33 MHz

Mit diesem Beispiel könnten wird folgende (teilweise wenig sinnvolle) Einstellungen für einen P5 Pentium Prozessor wählen :
 
J4 x J8
2,0 x 25
2,5 x 25
3,0 x 25
2,0 x 30
2,5 x 30
3,0 x 30
2,0 x 33
2,5 x 33
3,0 x 33
Prozessortakt
50,0
62,5
75,0
60,0
75,0
90,0
66,0
82,5
99,0 [100 MHz]
 
Mitunter werden Sie in der Beschreibung Ihres Motherboards wesentlich höhere Taktraten einstellen können, jedoch rate ich persönlich (aus dem subjektiv fehlenden Gefühl der Beschleunigung) davon ab einen Rechner der P6 Klasse zu Übertakten. Wer meint, die anfallende Wärme durch gleichzeitige Reduktion der Spannung um 0,1 Volt zu reduzieren, ist auf dem Holzweg - der Prozessor hat, bedingt durch die Erhöhung eines oder gar beider Taktarten einen erhöhten Appetit auf Energie.

Hier einige weitere Arten der Beschleunigung :

a.) Festplatte defragmentieren
b.) Größerer Hauptspeicher
c.) Bei häufigem Zugriff auf die Festplatte, Erhöhung des Caches
d.) Kompletter Tausch der CPU (z.B. P5 100 durch P5 166)
e.) Erweiterung des Cache RAM
f.) Deaktivierung ungenutzter Systemtools (z.B. permanenter Virenschutz)
g.) Verringerung der Farbenanzahl unter Windows
h.) Aufräumen in der Registrierdatenbank, unbenutzte Schriften deinstallieren

Hier einige Übertaktungsmodelle :

 
8086
80186 
80286 
80386 SX 
80386 DX 25 
80386 DX 33 
80386 DX 40 
80486 SX 
80486 - 25 
80486 - 33
80486 - 40
80486 - 50
80486 - 66
80486 - 80
80486 - 100
80486 - 133
80586 - 60 / 66
80586 - 75 / 90
80586 - 100
80586 - 120
80586 - 133
80586 - 166
80586 - 166*
80586 - 200 
80586 - 233
 
 

 
 
Kompletter Umbau bzw. Neukauf
Kompletter Umbau bzw. Neukauf
Kompletter Umbau bzw. Neukauf 
Kompletter Umbau bzw. Neukauf
Übertaktung auf 33 MHz
Übertaktung auf 40 MHz
keine empfehlenswerte Übertaktung möglich
Tausch gegen 80487 Prozessor
Übertaktung auf 33 MHz, Tausch gegen DX2 Prozessor
Übertaktung auf 40 MHz, Tausch gegen DX2 Prozessor
Tausch gegen DX2 Prozessor
keine Übertaktung möglich
Übertaktung auf 80 MHz
keine empfehlenswerte Übertaktung möglich
keine empfehlenswerte Übertaktung möglich
keine Übertaktung möglich
Übertaktung auf 75 MHz
Übertaktung auf 100 MHz
Übertaktung auf 120 MHz
Übertaktung auf 133 MHz (sehr geringer Zuwachs)
Übertaktung auf 150 MHz 
Übertaktung auf 180 bzw. 200 MHz
* MMX Version , gleiche Empfehlung
Übertaktung auf 233 MHz
Übertaktung auf 266 MHz (selten stabil)

Bitte beachten Sie, dass Cyrix & AMD Prozessoren der 586er Klasse, aufgrund ihrer hohen Betriebstemperatur, sich kaum zur Übertaktung eignen. Generell ist eine Übertaktung jenseits der 166 MHz Grenze kaum sinnvoll. Informationen zum Overclocking von aktuellen Prozessoren finden Sie auf entsprechenden Webseiten.
 

 
Verarbeitungsprinzipien :

Jahrtausendelang hatte der Mensch durch das Zählen gerechnet, mit Hilfe der Finger, Abakus oder auf dem Rechenbrett. Erst mit der weiteren Verbreitung des arabischen Ziffersystems wurde es mit Rechenmeistern wie Adam Riese möglich das Ziffernrechnen zu verbreiten. Die Stellenschreibweise und die zehn Ziffern des Dezimalsystems erlaubten die Aufstellung fester Regeln - Algorithmen genannt - für die vier Grundrechenarten auf der Grundlage des (jedem Schüler bekannten) 1x1. Wenn man die Verknüpfung der 10 Ziffern untereinander, das kleine Einmaleins, beherrschte, so konnte man auch ohne Zählen rechnen.
Ähnlich verlief die Entwicklung des automatisierten Rechnens. Weitaus die meisten mechanischen Rechenmaschinen und selbst die ersten elektronischen Rechenautomaten rechneten durch Zählen von z.B. mechanischen Umdrehungen oder elektrischen Impulsen. Kurz darauf aber fanden die mit der Elektronik auf den Plan gerufenen Nachrichtentechniker intuitiv zu logischen Schaltkreisen. Sie erfanden die logische Algebra neu und nannten sie Schaltalgebra. Der Rechenautomat gelangte so schnell auf eine Basis, welche die Mathematik erst nach Jahrtausenden ihrer Geschichte erreicht hatte : die logischen Grundlagen.
Bereits die alten Griechen und im Mittelalter wurden Grundlagen zur logischen Mathematik entwickelt, aber erst das 19. Jahrhundert machte aus philosophischen Spekulationen mathematische Wirklichkeit [H. Zemanek ("Logisches Algebra und Theorie der Schaltnetzwerke") aus "Taschenbuch der Informatik", Band 2. Herausgeber K. Steinbruch und W. Weber. Springer Verlag, 3. Auflage 1974 / H. Zemanek ("Computer, Werkzeuge der Informatik") Springer Verlag, 1971 / H. Kaufmann ("Die Ahnen des Computers" Econ Verlag 1974]. Das Werk von Leibnitz, das als Vorläufer der logischen Maschinen gelten dürfte, ist erst viel zu spät bekannt geworden, um die Geschichte der Technologie zu verändern.
Es ist der Engländer George Boole (1815 bis 1864), der mit seiner 1947 veröffentlichen Schrift "The Mathematical Analysis of Logic" die neue Epoche eröffnete. Boole basierte die Logik auf der Mathematik, daß man die logische Algebra heute in der anglo- amerikanischen Literatur als "Boolean Algebra" bezeichnet, ist ein Quellenirrtum [Dipl. Ing, H. Bornemann ("Die geschichtliche Entwicklung der Datenverarbeitung") IBM Deutschland 1975]. Erst die Entwicklung von Gottlob Frege (Begriffsschrift (1879)) zu den "Principia Mathematica" von Russell und Whitehead (1903) strebte den umgekehrten Weg an und führte die Mathematik auf die logische Grundlage zurück. 
Die so entstandene Aussagenlogik, in Deutschland durch Hilbert und Ackermann (1928) in klassischer Weise dargestellt, beschreibt gleichzeitig auch Relaiskontaktschaltungen und logische Impulsschaltungen. Obwohl bereits 1910 von dem Russen P. Ehrenfest anlässlich einer Buchbesprechung von L. Couturat festgehalten, entwickelten die Relaisfachleute die Schaltalgebra in den 30er Jahren des 20ten Jahrhunderts neu. Da Telefonschaltkreise den Schaltalgebra jedoch nicht so dringend benötigte, brachte erst das Erscheinen von Rechenautomaten Bewegung in die Entwicklung. Verschiedene Autoren begannen mit einer Flut von Literatur (u.a. Konrad Zuse, John v. Neumann, C.E. Shannon u.a.).
Die Variablen und Funktionen der logischen Algebra nehmen ausschließlich nur die Werte 0 und 1 an. Ihre wichtigsten Verknüpfungen sind die Konjunktionen (Und- Verknüpfungen), die Disjunktion (Oder-Verknüpfung) und die Negation (Verneinung). Mit diesen drei Verknüpfungen lassen sich alle logischen Funktionen aufbauen. Für die Zwecke der Informationsverarbeitung erweitert man die logische Algebra um die Dimension der Zeit. Aus den einfachen Entscheidungen zwischen 0 und 1 (ja und nein) werden dann Zeitreihen solcher Entscheidungen, und zu den Grundverknüpfungen muss man ein Verzögerungselement hinzufügen [H. Zemanek ("Logisches Algebra und Theorie der Schaltnetzwerke") aus "Taschenbuch der Informatik", Band 2. Herausgeber K. Steinbruch und W. Weber. Springer Verlag, 3. Auflage 1974] .Strukturen beliebiger Rechner lassen sich mit dieser Methode nicht nur theoretisch / logisch beschreiben sondern auch technisch / physisch verwirklichen. Durch diese Grundlage erhalten die entwickelten Systeme eine gewisse Universalität, die sie gegenüber den früheren, mechanischen, Rechenautomaten abhebt. Die maschinennächste Theorie beschreibt A. Turing 1936, der die mechanische Grundstruktur, die letztlich den Theorien aller oben genannten Logik den Halt gibt, am deutlichsten  herausgearbeitet hat [Alan M. Turing ("Das Portrait"), Elektronische Rechenanlagen 3 (1961), No 2 / A.M. Turing ("On Computable Numbers, with an Application to the Entscheidungsproblem". Proc. London Math. Soc. 42 (1936-1937)]. Die Turingmaschine hat einen bandförmigen Speicher, eine primitive Lese- und Schreibeinrichtung und eine Programmtrommel, deren Inhalt selbst wieder mit einer Turningmaschine identisch gemacht werden kann. Ein wesentlicher Beitrag zu der Entwicklung der Rechenautomaten war die Einführung des "Gleitpunktes" durch Konrad Zuse, der schon in den ersten Entwürfen diese sogenannte halblogarithmische Zahlendarstellung für eine Dualmaschine wählte.