Privatunterricht Sprachen Nachhilfe Musik Sport Kunst & Freizeit
Teilen

Von den ersten Computer bis zu den Geräten von heute

Von Elissa, veröffentlicht am 18/04/2019 Blog > Nachhilfe > Informatik > Die große Geschichte der Informatik kurz erzählt!

Das Wort Informatik wurde von den deutschen Informatiker Karl Steinbruch geprägt. Es ist eine Verschmelzung der Wörter Information und Automatik

Von Rechnungen in der Antike über die Vermarktung des ersten Computers, ENIAC, im Jahr 1951 und das Erscheinen des IBM-PC’s im Jahr 1981 bis hin zur Einführung von Windows 95, wie kamen wir dorthin?

Bill Gates sagte „Das Internet ist wie eine Welle: Entweder man lernt, auf ihr zu schwimmen, oder man geht unter.“

Die Welt hat sich aus dem Industriezeitalter hin in ein digitales Zeitalter entwickelt. Aber Rom wurde nicht an einem Tag gebaut: Die Informatik, wie wir sie heute kennen, wurde über viele Jahre hinweg aufgebaut und ist vielen Mathematikern, Physikern und Theoretikern zu verdanken.

Geschichte der Informatik: Von Algorithmen hin zum Programmieren

Lasst uns zunächst über den persischen Rechenmeister Abu Jaffar Al Khwarizmi sprechen. Denn die Abwandlung seines Namens ist der Ursprung des Wortes Algorithmus.

Die Entwicklung der Informatik ist tatsächlich eng mit den Grundlagen in der Mathematik verbunden, besonders mit den Algorithmen und deren Logik, die dank der Niederschriften von Al Khwarizmi im 9. Jahrhundert auftauchten. Ihm verdankt man auch die arabischen Ziffern.

Al Khwarizmi gilt als der Begründer des Algorithmus. | Quelle: Pixabay

Rechnen bedeutet vor allem, ein vorgegebenes Problem zu lösen, indem man genauen Regeln folgt.

Algorithmen beschäftigen sich mit ebendiesen eindeutigen Handlungsvorschriften zur Lösung bestimmter Probleme und deren Ausführung. Es handelt sich um die Realisierung einer abstrakten Operation, wie das Zusammenzählen von zwei Zahlen. Um zu einer konkreten Handlung zu gelangen, muss das alles sehr präzise niedergeschrieben werden, beispielsweise in Form eines Programms, das in der Programmiersprache geschrieben wird.

Das Ziel der Informatik ist es, Berechnungen so aufzustellen, dass sie von einer Maschine ausgeführt werden können, die zwar unglaublich schnell und genau ist, aber völlig ohne Gedanken agiert.

Die binäre Rechensystem erschien um 1697 dank der Arbeit von Gottfried Leibniz in Europa. Aus diesem sogenannten Dualsystem entwickelten sich dann auch die ersten Computer.

Ada Lovelace, eine Mathematikerin aus dem 19. Jahrhundert, veröffentlichte ihre Forschungen 1840 unter einem männlichen Namen. Sie trug maßgeblich zur Entwicklung des ersten Computers bei, der von Charles Babbage als Analytical Engine veröffentlicht wurde. Der Zweck dieser Rechenmaschine bestand darin, alles auszuführen, was man von ihm verlangen würde: numerische und symbolische Operationen.

Charles Babbage gilt als Großvater der Computer. Er hat sein Analytical Engine nie fertiggestellt, weil die britische Krone ihre finanzielle Unterstützung wegen der Dauer der Forschung zurückzog. Aber dank seiner Pläne konnte sein Sohn es beenden. Das Gerät ist jetzt im London Science Museum und funktioniert immer noch!

Informatik im Laufe der Jahre: Von der Mechanisierung von Berechnungen hin zur Software

Der Mensch wusste zuerst, wie man Werkzeuge und dann Maschinen herstellt, das heißt, Objekte, die eine andere Kraft als die eigene verwenden und die bestimmte Operationen selbst ausführen können, selbst komplexe und programmierte Aufgaben, wie der Jacquardwebstuhl aus dem Jahre 1801. Die erste binäre Programmierung.

Aber die Maschine ist nicht in der Lage, sich selbst zu verändern.

Im Gegenteil, der Computer, eine Informationsmaschine, kann sein eigenes Programm modifizieren, und wird zu einer Universalmaschine. Er hilft, die mechanische Intelligenz zu kontrollieren.

Alan Turing schuf 1936 den Gründungsartikel der Informatik. Er verstand, dass einige grundlegende Berechnungsvorgänge universell waren und dass man sie kombinieren könnte, um alle Algorithmen der Welt auszuführen, was den Anstoß für die Entstehung von programmierbaren Universalrechnern gab.

Er war es, der die Welt vom Industriezeitalter bis in das digitale Zeitalter erschütterte.

1943, während des Zweiten Weltkriegs konnten die Nazis dank der Enigma-Verschlüsselungsmaschine miteinander kommunizieren. Die Enigma ähnelte einer einfachen Schreibmaschine, bei der man über Rotoren und Walzen den Text verschlüsseln konnte, so dass niemand ihn decodieren konnte. Beim Empfang der Nachricht durch eine identische Maschine wurden die Codierräder auf den Kopf gestellt, und wie in einem Spiegel wurde die Nachricht deutlich.

Mit dieser Maschine konnte man seine Nachrichten verschlüsseln. Mit dieser Maschine konnten sich die Nazis während des 2. Weltkriegs miteinander verständigen. |Quelle: Pixabay

Kleine Geschichtsstunde: Die Briten hatten eine dieser Maschinen in die Hände bekommen, aber es war ihnen nicht möglich, die Funktionsweise zu verstehen. Der Code wurde 1933 von polnischen Mathematikern entschlüsselt, aber die Berechnung dauerte zu lange. Es dauerte mehrere Tage, bis die Nachricht entschlüsselt wurde, während die Nazis den Code täglich änderten.

Ich empfehle euch den Film „Imitation Game“, der die Geschichte von Alan Turing und der Maschine Enigma nachzeichnet. Selbst wenn der Film natürlich romantisiert wird, ist es sehr interessant, die Probleme der Zeit und einige Fragen zu verstehen, die unbeantwortet bleiben.

Grace Hopper, eine weitere außergewöhnliche Frau, die zum Wachstum der Informatik beigetragen hat, arbeitete an dem ersten vollautomatischen Digitalcomputer von IBM: dem Harvard Mark I.

Eine Anekdote über den Mark I aus dem Jahr 1947: Eines Tages brach der Rechner zusammen. Im Relaiskreis steckte eine Motte fest. Das Insekt wurde sorgfältig entfernt und mit folgenden Worten im Logbuch festgehalten: „Erster Fall, in dem tatsächlich ein Fehler gefunden wurde“. Daher kommt der Ausdruck Bug, der in der Technik für einen Fehler verwendet wird. Zu dieser Zeit waren es wirklich Insekten!

Diese ersten Computer waren nicht für den breiten Teil der Gesellschaft nutzbar, sie eigneten sich nur für einen sehr professionellen Gebrauch. Grace Hopper verteidigte die Idee, dass eine Computersprache in einer Sprache geschrieben werden sollte, die der englischen Sprache nahe war. Sie entwickelte einen Compiler, eine Software, die die Elemente des Algorithmus in Maschinensprache übersetzen konnte und daher für alle Ingenieure verständlich war.

Die ersten Computer wurden um 1940 geboren. Im Jahr 1944 beschreibt der theoretische Physiker John von Neumann das Referenzmodell eines Rechners, mit dem Namen „von Neumann-Architektur“, das die Grundlage für die Arbeitsweise der meisten heute bekannten Computer bildet. Von 1945 bis 1951 wurde die Von-Neumann-Architektur von Ingenieuren gebaut, die mit einem Lötkolben arbeiteten. Es waren Frauen, die für die Programmierung des ballistischen Computers sorgten.

Als Grace Hopper 1992 starb, kamen Computer in die Häuser, sie kosteten nicht mehr den Preis eines Hauses oder Autos, sondern den eines Fernsehers. Sie ließen die weltweite Kommunikation durch das Internet explodieren.

Das Internet ist mittlerweile zum täglichen Leben von Milliarden Menschen geworden.

Computerentwicklung: von der Kodierung von Informationen zu digitalen Daten

Information ist eine abstrakte Angelegenheit, die gemessen werden kann. Eine Nachricht, unabhängig von ihrem tatsächlichen oder angenommenen Wert, unabhängig von ihrer genauen oder falschen Bedeutung, enthält eine exakte Menge an Informationen. Das Atom einer Information ist das binäre Element, das Bit, so wie “Ja / Nein“, „0/1“ oder „Wahr / Falsch“. Von jemandem zu wissen, ob es sich um einen Mann oder eine Frau handelt, ob er jung oder alt ist, ob er klein oder groß ist, ist sehr schematisch, aber er gibt uns bereits drei Informationen über ihn, also drei Bits.

Das Bit gibt den Informationsgehalt einer Datei an. Der Informationsgehalt einer Datei wird in Bits angegeben. |Quelle: Pixabay

Der Mathematiker Claude Shannon definierte die Informationstheorie mit der Wahrscheinlichkeitstheorie der Kolmogorov-Gleichung.

Sie ermöglichten es, das Weltbild im digitalen Austausch zu verändern.

Alle Objekte (Bilder, Töne, Texte, Daten) verfügen über eine digitale Abdruck, der es ermöglicht, die Informationen zu speichern, zu übertragen, bis ins Unendliche zu reproduzieren und dank aller Arten von Algorithmen auf spezifische Weise zu verändern.

Auf einen Vorschlag des britischen Physikers Tim Berners-Lee hin wurde das Word Wide Web geschaffen. Das Semantic Web ist eine Erweiterung des herkömmlichen Webs, in der Informationen mit eindeutigen Bedeutungen versehen werden, um die Arbeit zwischen Mensch und Maschine zu erleichtern 

Wenn man in einer Suchmaschine „Autounfall“ eingibt, wird tatsächlich nach allen Dokumenten gesucht, in denen die Wörter „Unfall“ und „Auto“ erscheinen. Aber wenn das Dokument „Kollision zwischen einem LKW und einem Fahrrad“ heißt, ohne „Autounfall“ genau zu erwähnen, wird man es nicht finden. Die Idee des Semantic Web ist nur genau das zu finden, was auch im Dokument steht.

Unsere digitale Welt heute: Die Evolution der Schnittstelle zwischen Mensch und Maschine

Zu Beginn des 21. Jahrhunderts steckten die Schnittstellen zwischen Computern und Menschen noch in den Kinderschuhen. Die Benutzeroberfläche von Xerox im Palo Alto Research Center verdanken wir einer Zeit, als es noch keine PCs gab.

Im Jahr 1968 entwickelte Douglas Engelbart eine grafische Umgebung mit Fenstern, die mit einem an den Computer angeschlossenen Zeiger geöffnet und geschlossen werden können: die Computermaus.

Zwischen 1969 und 1983 ist die Mensch-Maschine-Schnittstelle minimal: Die Tastatur wird zum Senden von vom Bildschirm neu übertragenen Informationen verwendet. Computer sind zu der Zeit den Eliten reserviert und nur im professionellen Umfeld präsent.

Heutzutage haben die meisten Haushalte in Deutschland einen Computer. Heutzutage gehören Computer zu unserem Alltag| Quelle: pixabay

Nach technischen Fortschritten kommt der Benutzerkomfort zwischen 1984 und heute zum Tragen: Bildschirminhalte werden in Form von „What You See Is What You Get“ (WYSIWYG) angezeigt. Diesen Ausdruck machte Apple und sein berühmter Macintosh populär. Die Interaktion wird mit Fenstern, Symbolen, Menüs und Zeigegeräten symbolisiert und das Lernen wird für die breite Öffentlichkeit erleichtert. Dies ist die Geburtsstunde des Consumer Computing.

Zukünftiger Programmierer, Computerhistoriker oder einfach nur neugierig, wir hoffen, dass dieser Artikel einige Fragen zur Erfindung des Computers, zur Turing-Maschine oder zur Geburt eines Computerprogramms beantworten konnte.

Teilen

Wir freuen uns über Feedback von unseren Lesern
Enthält dieser Artikel die Informationen, nach denen Du gesucht hast?

Dieser Artikel war totaler Käse? Wirklich?Okay, beim nächsten Mal wird's besserNur Durchschnitt? Was fehlte Dir konkret?Danke Dir! Stelle verbliebene Fragen gerne untenWir freuen uns, dass wir Dir helfen konnten :) (Aktuell gibt es hierzu noch keine Bewertung)
Loading...

Einen Kommentar posten

avatar