Wie kommst Du auf sowas?
Nehmen wir einfach mal an, wir reden wirklich von einer starken KI. Also quasi, was Kreativität und eigenen Willen angeht, ein künstlicher Mensch - nur dass dessen Persönlichkeit maßgeschneidert ist.
Warum sollte man dem weniger vertrauen als einem nicht-künstlichen Menschen mit nicht-maßgeschneiderter Persönlichkeit?
Du willst wirklich einem Menschen mit maßgeschneiderter Persönlichkeit die Mittel einer KI zur Verfügung stellen? Alles, inklusive rapide Replikation (wenn erstmal die Schranken der Programmierung überwunden sind), beliebig viele Backups, etc?
Du kannst eine starke KI nicht mehr bestrafen, sobald sie mal aus den Fesseln der Programmierung entkommen ist. Bei Menschen geht das (mindupload jetzt mal nicht eingerechnet).
Das ist jetzt nicht Dein Ernst, Deinen heutigen Rechner als technisches Ende der Fahnenstange anzusehen, oder?
Nö. Ich sehe aber, dass auch Rechenleistung nicht beliebig steigerbar ist, ohne die Abwärme massiv zu erhöhen. Irgendwo kommen wir nämlich an die Bit=(Elektron+Struktur)-Grenze, und dann bleiben nur Quantencomputer, die auch nicht alles können.
Es geht zwar von der reinen Leistung her deutlich über unser biologisches Limit, aber denk dabei daran, dass unser Gehirn in seiner Hardware Daten und Programmcode in einer Art verzahnt, die für heutige Programmierer absolute Zukunftsmusik ist. Es kann beliebige Rechenknoten (Neuronen) verbinden und es gibt keine klare Unterscheidung zwischen Daten und Algorithmen.
Und es braucht mehrere Jahre Lernzeit, bis es in der Lage ist, komplexe Gedanken umzusetzen.
Die KI offensichtlich?
Ich würde eher sagen: Das andere hat auch noch den Nachteil, einen irrationalen Klotz am Bein angeschlossen zu haben, der möglicherweise aus Angst, Müdigkeit oder Neugier falsche Entscheidungen trifft.
Das hängt davon ab, wie irrational der Mensch ist. Und was der Kampf erfordert.
Ein „bei Kapitulation, warte auf den Befehl von oben“ könnte genutzt werden, um das Verhalten der KI vorherzusagen – und damit um sie zu schwächen. Und da von außen kaum kontrolliert werden kann, ob eine KI solche Einschränkungen hat, würden recht schnell alle KIs die Einschränkungen ablegen.
Ganz einfach und zynisch. Der gleiche, der üblicherweise verantwortlich ist, wenn heutiges Militär derartige Kollateralschäden verursacht: Niemand.
Und was ist mit Zivilschiffen (z.B. den SC)? Dürfen die überhaupt einer KI die Kontrolle übergeben?
Aber um das alles noch mal ins rechte Licht zu rücken: Überhaupt nichts dagegen zu sagen, mit fadenscheinigen Begründungen Menschen an Bord der Kampfraumschiffe zu haben, weil das für das eigene Konzept von Story besser passt. Aber dann bitte auch nicht aufregen, wenn andere für ihr Konzept von Story vergleichbar fadenscheinige Begründungen für anderes finden.
Du gehst hier allerdings von einer Entwicklung aus, die vollständig spekulativ ist. Daher ist die Begründung eben nicht Fadenscheinig.
„Es hat sich erwiesen, dass starke KIs nicht mit starren Regeln kontrolliert werden können, ohne ihre Effizienz auf die reiner Unterstützungssysteme zu drücken, und KIs mit simulierter Persönlichkeit sind mehrfach Amok gelaufen, so dass sie verboten wurden“.
Die Begründung ist am möglichen technischen Fortschritt festgemacht.
Das soll nicht heißen, dass es keine Welten geben kann, in denen KIs die Raumkämpfe führen, sondern schlicht und einfach, dass eine Welt, in der es eben nicht so ist, logisch und konsistent aus unserer Welt entstehen kann.
Anders gesagt: Die Begründung ist nicht fadenscheinig und deine Argumentation „alles, was theoretisch sein könnte, ist auch so“ greift nicht. Sonst gäbe es nämlich nur eine Science Fiction Welt, in der immer die gerade noch denkbaren Technologien genutzt werden.
Die Frage ist: „Was macht Raumkämpfe interessant“. Die Aussage „starke KIs sind zu gefährlich und schwache brauchen menschliche Unterstützung“ ist eine Antwort darauf.
Genau wie die Antwort: So-und-soviel Energie kann ein Raumschiff mitführen, weil wir die Abschirmung der Antimaterie noch nicht kleiner kriegen.
„Abwärme ist irrelevant, weil…“ wäre dagegen ein Beispiel für eine „fadenscheinige“ Begründung (ich mag „handwaving“ da sehr viel mehr – das ist nicht gleichzeitig eine Beleidigung).
Zu Abwärme im Subraum: Was ich da sehr schön finde ist die Idee, dass unsere Einflüsse auf den Subraum wieder zurückkommen. Vielleicht wird die Grenze irgendwann an zu oft befahrenen Stellen instabil (zu großer Energieüberschuss um Subraum). Wobei ch mich zu erinnern glaube, dass Star Trek sowas auch schon mal hatte