Um mal wieder auf den Punkt zu kommen:
Vercybern lohnt sich nur, wenn dadurch eine Leistungssteigerung zustande kommt, ansonsten wird man wohl mit Neuro-Hauben, -Handschuhen, etc. zu Rande kommen, oder? Das wiederum kann man wohl (frei) definieren. Die Lösungen reichen von "gibt nur Bodyware" (für Sportler, Soldaten, Kranke, etc) über "gibt auch Cortexware" (Hilfsrechner eingepflanzt im Gehirn) bis hin zur allgemeinen Steigerung kognitiver Fähigkeiten, wovon Grey aber wohl Abstand nimmt. Für mich wäre Fall 1 durchaus denkbar, und würde wohl auch vollkommen reichen. Nimmt man noch eventuelle juristische/kulturelle Hindernisse hinzu, kann auch die Zukunft mit einem geringen Anteil an Cyberware auskommen, auch wenn neurologisch/kybernetische Schnittstellen durchaus verbreitet sein dürften. aber im Zweifelsfall höchstens als minimalinvasive Maßnahmen.
Ob das für die Erfordernisse der fernen Zukunft reicht, hängt wohl auch davon ab, wie mit KI umgegangen wird:
Entwickelt eine KI Bewusstsein nach unserem Verständnis? Dann wäre Fat Ducks wirklich amüsanter Beitrag von vor drei Seiten nach KI-affirmative Action ja gar nicht abwegig. Sobald sie wegen der Automatisierung nicht mehr wegzudenken sind, können sie ihre Rechte einfordern. Ich stoß mich da halt an der Idee der "Programmierung" einer KI, weil eine Programmierung nach heutigem (Alltags) Verständnis ja mit beliebiger Entwicklung/Lernen nichts zu tun hat.
In diesem Falle hätte man es mit "beschänkten" Assistenzsystemen zu tun, die zwar die eigentliche Arbeit machten, aber letztlich von einem Menschen als Leiter abhängen/interagieren.
In beiden Fällen sehe ich die Möglichkeit, z.B. Piloten einzusetzen. Im ersten Fall sind KI zu selten/teuer/nicht bereit, den Job zu machen. (Sie bewerten das Risiko anders als Organismen), im zweiten Fall ist es einfach unumgehbar, daß der Mensch lenkt, und die Maschine hilfreich denkt.