@sma: Jo, du scheinst da Ahnung von der technischen Seite zu haben. Was ist denn mit LCD Displays?
Ich weiß das eine oder andere über die Geschichte von Computern, aber leider längst nicht so viel über deren Peripherie. Für mich sind LCDs (das D steht für Display und daher wäre ein LCD-Display ein Display-Display – besserwisserte der, der selbst auch HTTP-Protokoll sagt) eine sehr moderne und eigentlich auch entbehrliche Technologie, wenn es darum geht, ob Computer als Maschinen mit im Vergleich zu Menschen schier grenzenloser Rechenleistung eine gesellschaftliche Revolution auslösen können.
Ich würde daher wesentlich früher schauen. Computer gibt es seit ca. 70 Jahren. Die meiste Zeit kamen diese auch ohne LCDs aus. Damit hat man natürlich nicht die Smartphone-Revolution der letzten 10 Jahre im Spiel, aber hey, die Maschinen der 50er bis 70er Jahre sind eh viel interessanter
Für die PDP-1 (1959) gab es optional einen Bildschirm, der quasi ein Radargerät war.
Auf einem ziemlich runden phosphoreszierenden Bildschirm konnte man einen Bildpunkt steuern, indem man die horizontale und vertikale Ablenkung eines Elektronenstrahls zeitlich sehr exakt programmieren konnte. So ein Bildschirm hat keine Pixel, sondern malt Linien, die wenige Augenblicke überdauern und dann vergehen. Dadurch war er schärfer als alles, was danach kam, aber auch immer ein bisschen matschig, wenn der Bildschirm alterte. Malt man periodisch immer wieder die selben Sachen, hat man ein stehendes Bild. Studenten wie Steve Russell hatten mit der PDP-1 dann nach Feierabend nichts besseres zu tun, als das erste Computerspiel zu schreiben, wo zwei Raumschiffe um eine Gravitationsquelle herum sich gegenseitig beschießen und vernichten können. Das Programm wurde dann später von Technikern, die neue PDP-Anlagen installierten, als Test für den Computer genutzt, weil es die Hardware mehr forderte als die meisten Anwendungsprogramme.
So ein Monitor wurde bereits in den 40er Jahren entwickelt und ich denke, man schafft das auch ohne Plastik, wenn man Glas formen, von innen bedampfen, dann darin ein Vakuum erzeugen und Elektromagnete aus dünnen Kupferdrähten bauen kann und schließlich noch Kondensatoren herstellen kann, die Hochspannung aufbauen können.
Aber ein Fernschreiber ist wie gesagt auch ein ausreichendes Ein/Ausgabegerät. Die Dinger gibt es seit ca. 1900. Für die Teletype 33 wurde übrigens ASCII entwickelt, der All American Code for Information Interchange hat sich bei Computern letztlich durchgesetzt und ist nun im Unicode-Standard aufgegangen.
Oder man druckt. Kettendrucker haben pro Spalte einen drehbaren Druckkopf und können eine komplette Zeile auf einmal unter Höllenlärm auf's Papier hämmern und dabei dann eine Seite grünliches Endlospapier schneller füllen, als moderne Drucker für den Privatgebrauch.
"Hochauflösende" Grafik ist dann natürlich auf eine Seite Papier mit 132x65 Sternchen beschränkt. Aber selbst da fanden Leute es bereits witzig, Programme wie z.B. EDITH zu schreiben, dass in dieser Auflösung Pin-Ups mehr oder weniger bekleidet ausdruckte.
Fest zugeordnete Lämpchen sind natürlich auch noch eine Option. Der Apollo-Guidance-Computer, ein Wunderwerk von 1961, hatte neben einem Tastenfeld für Zahleneingabe noch 14 beschrifte Lampen (und 24 7-Segment-Ziffern-Anzeigen). Reicht auch, um zu melden, dass der Treibstoff knapp wird oder das System überlastet ist und daher neu booten muss.
Später wechselte man von Vektordarstellung zu der Technik, die das aufkommende Fernsehen nutzte, weil billiger, denke ich mal. Der Elektronenstrahl wird systematisch von links nach recht und oben nach unten in Zeilen über den nun rechteckigen bewegt und dabei gepulst, sodass er einzelne Punkte (Pixel = Picture Elements) erzeugt. Macht man das häufig genug pro Sekunde, entsteht für den Menschen ein stehendes Bild. Die Hardware für den Monitor ist nahezu die selbe, nur die Ansteuerung ist viel komplexer und erfordert schnellere Elektronik. Wann genau das passierte, müsste man recherchieren.
1968 präsentierte Doug Engelbart (dem man die Erfindung der Computermaus zuschreibt) die "Mutter aller Demos" und nutzte dort u.a. einen Text darstellenden Monitor. Und 1973 hatte der Xerox Alto bereits einen 606x808 Pixel-Monitor (was horrende 64KB RAM benötigte) und konnte somit erstmals hochauflösende Grafik (in Schwarzweiß) darstellen. Der Alto kostete allerdings auch umgerechnet ca. $200.000. Und da war der ebenfalls am Xerox PARC (Palo Alto Research Center) erfundene Laserdrucker noch nicht bei.
Kein Plastik zu haben würde so eine Entwicklung sicherlich nicht einfacher machen aber erneut denke ich, dass man Lösungen finden kann, wenn man dann einen anderen leicht formbaren Isolator findet.
Mindestens so entscheidend wie die Hardware ist IMHO die Software und dazu die Theorie dahinter. Wenn du niemanden wie Leibniz und Boole hast, die die Vorteile binärer Zahlendarstellung erkennen, niemanden wie von Neumann und Turing, die sich über Systemarchitekturen und Berechenbarkeit Gedanken machen, keinen Querdenker wie McCarthy, Visionäre wie Engelbart oder Kay, Bastler wie Moore oder Torvalds oder Professoren wie Kurtz, Wirth, und wie sie alle hießen, keine Geschäftsleute wie Gates oder Jobs und, gerade was Computer-Revolution in den 60er und 70er Jahren angeht, keine Drogen, Hippies und Weltverbesserer gegeben hätte, würde es wahrscheinlich ganz anders aussehen. Und wir dürfen nicht den kalten Krieg vergessen, der dafür gesorgt hat, dass die USA die Entwicklung eines möglichst robusten und dezentralen universellen Netzwerks zu Verbindung von lokalen Computernetzwerken in Auftrag gegeben hat, aus der dann das Internet entstanden ist und damit in den Anfangsjahren eine Euphorie von Freiheit, Unabhängigkeit und – weil irgendein Doktorant am teuersten Forschungsinstitut der Weltgeschichte mit Gopher nicht zufrieden war um darüber seinen Kollegen Forschungsarbeiten zur Verfügung zu stellen und er zufällig einen dieser hypergenialen neumodischen total schicken NeXT-Cubes im Büro stehen hatte, wo eine fertige UI-Komponente bereits ein Rich Text Editor war – ohne es zu ahnen, das Informationszeitalter begonnen hat.