Ich bin skeptisch das zufällig aus der Zeit gerissene Leute, die keine Experten auf Dutzenden notwendiger Gebieten sind und alles Wissen aus dem Gedächtnis heraus rekonstruieren können, eine ernsthafte Veränderung erreichen können, weil alles, was wir im 21. und 20. und wahrscheinlich auch im 19. Jahrhundert entwickelt haben, auf den Entwicklungen davor basiert und man nur die Irrungen und Wirrungen abkürzen könnte, nicht aber die eigentliche Entwicklung.
Und der Widerstand gegen alles Neue und Unbekannte, der allen Menschen und wahrscheinlich auch den EDO-Spezies innewohnt, ist dabei noch gar nicht berücksichtigt.
Ich kenne mich auf einem einzelnen kleinen Gebiet recht gut aus, sodass ich mir zutraue, dort fundierter zu antworten: Die Entwicklung von Computern.
In unserer Welt hat es ca. 40 Jahre gedauert, den modernen Computer zu entwickeln, der prinzipiell alles beherrscht, was wir heute als selbstverständlich ansehen, und zwar von Mitte der 30er bis zu den 70er Jahren. Ich würde das Ende sogar recht exakt am Xerox Alto von 1973 festmachen, der locker 10 Jahre technologischen Vorsprung hatte, allerdings nach heuten Maßstäben auch über $100.000 pro Arbeitsplatz gekostet hätte.
1937 begann Konrad Zuse mit elektromechanischen (relais-basierten) Rechenmaschinen herumzuexperimentieren hatte 1941 den ersten Computer (wie man das definiert, hatte ich schon mal an anderer Stelle geschrieben) entwickelt. Parallel dazu begann in den USA am MIT die Forschung, mir fällt da insbesondere Shannon ein und in England machte sich ein gewisser Turning seine Gedanken. Zwischen 1941 und 1943 baute England im Geheimen Colossus, eine dedizierte elektronische digitale Rechenmaschine zum Knacken des deutschen Lorenz-Chiffre. Im Rahmen des Manhatten-Projekts baute die USA ebenfalls elektromechanische und elektronische Rechner, den ersten digitalen Computer aber erst 1946. Nach dem Krieg war 1959 die IBM 1401 der erste kommerziell erfolgreiche Business-Computer. Im selben Jahr baute DEC auch die PDP-1, einen weiteren Meilenstein, erstmals transistorbasiert.
Interessant ist, dass in Deutschland das Reichskriegsministerium oder wo Zuse auch immer vorgesprochen hatte, das Potential nicht sah. Und auch Flowers, der angeboten hatte, besagten Colossus zu bauen, glaubte man nicht, dass das möglich wäre und verwehrte ihm Ressourcen. Das Ding entstand nur, weil er es trotzdem gemacht hat.
Da ich Informatiker und kein Elektroingenieur bin, kann ich einen Computer leider erst konstruieren, wenn mir jemand irgendwie geartete Logik-Gatter zur Verfügung stellt oder eben funktionierende mit einer stabilen Stromversorgung betriebene Relais oder besser noch Röhren, aus denen ich Logik-Gatter aufbauen kann. Und man gebe mir bitte auch noch entprellte Kippschalter, Lämpchen und idealerweise noch einen Fernschreiber. Gerne nehme ich auch schon funktionierende Lochkarten oder -streifenleser. Ein Drucker wäre auch toll, ebenso Lochkarten-Stanzer. Von einem Bildschirm wage ich ja gar nicht zu träumen.
All das müsste entwickelt werden, aber dann kann ich – weil ich die mathematischen und Informatik-spezifischen Grundlagen tatsächlich im Kopf habe – aus NANDs eine komplette CPU sowie Registerspeicher bauen, dann eine Maschinensprache entwickeln und das Ergebnis dann natürlich auch programmieren. Wenn ich mich noch vorbereiten kann, würde ich versuchen, z.B. den Maschinencode und die grundlegende Architektur der PDP-8 auswendig zu lernen, weil das ein Minicomputer war, der ein gutes Größen- und Leistungsverhältnis hatte und vergleichsweise simpel war.
Somit könnte ich bei Vorhandensein von genug Elektrotechnik in einigen Monaten einen funktionierenden Computer bauen. Beachtet allerdings, dass die 1965 entwickelte PDP-8 primitiv im Vergleich zu dem 1962 entwickelten Apollo-Guidance-Computer (AGC) ist, der uns heutzutage hoffnungslos primitiv erscheint. Anfang der 60er war das aber ein Meisterwerk der Miniaturisierung und von überraschender Leistung, weil es meines Wissen das erste Mal war, dass ein zweistufige Maschinencode benutzt wurde, wo man in einem sehr primitiven Befehlssatz einen Interpreter für eine virtuelle CPU mit einem komplexeren Befehlssatz baut, die dann die eigentlichen Programme ausführt – und das auch noch nebenläufig, d.h. mehrere Programme auf einmal.
Müsste auch noch die Elektrotechnik entwickelt werden, müsste ich wahrscheinlich Jahrzehnte mit meinem Computer warten. Und würde ich gerne Transistoren oder gar integrierte Schaltkreise haben wollen, kann ich gar nicht abschätzen, wie viele Millionen Stunden Forschungsarbeit in diese Technologien fließen müsste, damit ich auch nur in die Nähe des oben erwähnten Xerox Alto komme – allein sein mit 1/2 Mio Pixel hochauflösender Bildschirm würde viele Jahre Fernsehtechnik erfordern.