bis 1950: Die Anfänge
Computer bestanden aus einer Vielzahl von Relais und Röhren, sie wurden in Maschinensprache und später in Assembler programmiert.
1950-er: Eine neue Technologie
Transistoren ersetzten Vakuumröhren beim Bau von Computern, es fand ein Übergang von Assembler- zu Hochsprachen (Fortran, Cobol, Lisp) statt, die Rechner konnten nur einen Benutzer gleichzeitig bedienen (single tasking).
1960-er: Grundlagen und Entwicklung
Integrierte Schaltungen elektronischer Bausteine erhöhen die Rechenkapazitäten, verbessern ihre Zuverlässigkeit und verkleinern ihr Volumen. Multitasking, d.h. die gleichzeitige Bedienung mehrerer Benutzer, löste das single tasking ab. Es wurden Minicomputer, meist für spezille Augaben, gebaut, die auch im Verbund mit Großrechnern arbeiten konnten.
1970-er: Revolution der Technologie
Die Verdichtung von immer mehr Bausteinen auf kleinstem Raum, die sog. VLSI- (very large scale integration) Bausteine erhöhen die Zuverlässigkeit der Computer. Außerdem wurde das Format der Rechner immer kleiner und die Hardware-Preise fielen. Im Bereich der Software (SW) wurde das SW-Engeneering zur Verbesserung der Entwicklungsarbeit eingeführt.
1980-er: Ein allgegenwärtiges Werkzeug
Der Computer wurde als Bestandteil von Küchenmaschinen, Uhren, Kameras und anderen Gebrauchsgegenständen zu einem allgegenwärtigen Werkzeug. Durch das Aufkommen der Personal Computer (PCs) hat der Rechner auch außerhalb der Rechenzentren eine große Verbreitung erfahren. Der Verbund von PCs durch Netzwerke bewirkte einen Kapazitätszuwachs, ohne daß ein Großrechner angeschafft werden mußte.
Vor allem die Japaner bemühten sich, die fünfte Computergeneration für KI (Künstliche Intelligenz) -Anwendungen zu entwickeln.
Die Anfänge und erste Entwicklungen auf dem Gebiet der Datenverarbeitung können in einer Vielzahl von Büchern, z.B. [1], nachgelesen werden.