Na... kleinen Moment.
Es geht ja nicht nur um die Touch-Displays. Es geht zB auch um die Bedieneroberfläche. Ich sitz hier zB gerade an einem 15 Zoll Notebook worauf viele Bilder nicht ganz dargestellt bzw. verkleinert werden. Ich glaube es wird hier in naher Zukunft bereits zu steuerungen kommen wo der Monitor meinem Blick folgt... dort wo also derzeit das Bild endet, wird der Computer künftig meine Augenbewegung erkennen und mir abnehmen zur Maus zu greifen... sondern das Bild für mich ins Blickfeld ziehen. Vermutlich genauso wie wenn er beginnt Details des Bildes zu vergrössern, wenn ich lange darauf starre. Solche Steuerungen gibt es heute bereits in der Technik für Schwerstbehinderte.
Sicher, gerade für Schwerbehinderte (oder nichthumanoide Spezies, um bei Trek zu bleiben) machen solche "Gimmicks" Sinn, aber auch nur weil die in der Regel darauf angewiesen sind und keine andere Möglichkeit der Eingabe haben. Bei deinem konkreten Beispiel sehe ich aber bei einem "Durchschnittsuser" schonmal ein paar Probleme. Am wichtigsten ist, dass der Computer wissen muss, was deine Augenbewegung gerade bedeutet. Willst du einen Bereich nur vergrößert haben? Ein Steuerelement mit dem Blick "anklicken"? Wenn zweiteres, was passiert, wenn du mit deinem Blick versehentlich über einen anderen "Button" fährst als den, den du eigentlich "anklicken" wolltest? Oder was passiert, wenn du einen Wert/Text eintippen musst (sehen wir selten auf Sternenflottenschiffen, aber es kommt durchaus vor)?
Einen Teil kann man sicher über kontextsensitive Menüs und Befehle realisieren, aber eben nicht alles. Und da ist dann ggf. die Hand einfach schneller und intuitiver.
Eine Steuerung wie du sie ansprichst, vor allem Head-/Eye-Tracking, hat ja durchaus seine militärischen und zivilen Einsatzgebiete. Soweit ich weiß folgt zumindest bei einigen Kampfhubschraubern der Gegenwart die Ausrichtung des Bordgeschützes (und evtl. die Zielerfassung) dem Blick des Feuerleitoffiziers - aber auch nur das. Denn ohne weitere Parameter/Eingabemöglichkeiten eignet sich Eye-Tracking eben nur zum Steuern eines "Mauszeigers" oder von ähnlichen Konstrukten, nicht für die komplette Befehlseingabe.
Zudem gerade Eye-Tracking ein Problem hat, da die meisten Bewegungen der Augen unbewusst sind und es einiges an Umdenken erfordert, das bewusst zum Steuern eines Interface zu benutzen.
Aber es ist eben auch nicht von der Hand zu weisen das die Innovationen in dem Berreich derzeit auf genau drei Faktoren hinauslaufen: Schnelligkeit; Bedienervereinfachung und Verkleinerung.
Das Problem dabei ist, dass gerade die ersten beiden Punkte nach jahrelanger Erfahrung und rumexperimentieren mit Alternativen in der Realität eher für ein herkömmliches Tastatur-Maus-Schema sprechen. Oder meinetwegen Touchscreens, die beides mit der Anzeige vereinen. Auf jeden Fall sieht es aktuell so aus als wäre eine Berührungs- oder Gestengesteuerte Bedienung in der Mehrzahl aller Anwendungsfälle das Optimum.
Durch die früher oder später geforderte Verschnellerung wird auch die Sprachsteuerung kommen... Im Prinzip ist das schon eingetreten, die Verschiebung in diesen (Computer-)Sektor gibt es bereits: Vor 20 Jahren waren E-Mails noch das Non-plus Ultra, dann ging das über Instant Messenger bis heute hin zu sachen wie Skype oder TS, wo man nicht nur spricht sondern auch den gegenüber sehen kann. Von Textbasierter ist man hier zu Audiovisueller Kommunikation übergegangen... in einem minimalen Zeitraum. Sprache ist nicht nur einfacher sondern auch schneller.
Sprachsteuerung ist ein ziemlich komplexes Thema, zumindest komplexer als es auf den ersten Blick oft wirkt. Dass Sprachsteuerung momentan eher ein Nischensektor ist liegt nicht daran, dass die Computer einfach nicht schnell genug sind (nun gut, nicht NUR daran, Apples "Siri" und demnächst Googles "Majel" zeigen aber dass man das mit Tricks in den Griff bekommen kann).
Es liegt zum einen daran, dass sie außer unter Laborbedingungen immer noch Probleme mit korrekter Texterkennung haben. Den klassischen Star-Trek-Fall in dem ein verbaler Befehl gegeben wird und selbst bei starkem Hintergrundlärm immer direkt vom Computer verstanden und prompt ausgeführt wird ist in Sachen Glaubwürdigkeit ein absoluter Grenzfall, SciFi hin oder her. Um ehrlich zu sein ist es schon ein ziemliches Kunststück, dass die KI das Wort "Computer" in einer Unterhaltung von dem "Computer?" unterscheiden kann, bei dem er sich angesprochen fühlen muss.
(Nebenbei: Haben wir eigentlich irgendwann, irgendwo überhaupt schon einmal gesehen, dass der Computer einen Befehl *akustisch* nicht verstanden hat? Ich meine es waren immer nur fehlende Parameter oder unklar *formulierte* Befehle dergleichen)
Dazu kommt noch, dass Sprachbefehle vor allem in zwei Situationen taugen: Wenn man die Hände nicht frei hat und wenn man nur kleine, einfache Dinge verlangt. Was ich damit meine sind so Dinge wie "Suche mir XYZ in Wikipedia" (bzw. bei Trek "Computer, suche mir die Namen aller Besatzungsmitglieder mit mehr als zwei Kindern an Bord" - nur um des Beispiels willen). Bei solchen Dingen ist Sprache tatsächlich auch schneller, da hast du Recht.
Aber jetzt setze man sich mal vor den heimischen PC, öffne ein halbwegs komplexes Programm wie Cinema 4D (oder auch nur den Internetbrowser) und stelle sich beim Arbeiten (surfen) vor, jeden Schritt über ein Stimmenkommando eingeben zu müssen. Das würde nach ein paar Minuten, in denen sich die erste Freude über den Coolness-Faktor gelegt hat, ziemlich lästig. Maus und Tastatur sind für komplexe Eingaben einfach schneller und auch intuitiver.
Anderes Beispiel: Das Spiel "Tom Clancy's EndWar" war auf Sprachsteuerung ausgerichtet und gab dem Spieler die Möglichkeit, seine Einheiten nur über Stimmkommandos zu dirigieren. Und obwohl das sehr zuverlässig funktionierte, weil man die Zahl an möglichen Befehlen auf ein Minimum reduziert hatte (was der Sprachsteuerung einiges an Arbeit abnimmt), griffen die meisten Spieler trotzdem zu Maus und Tastatur. Weil diese Steuerung sehr viel weniger umständlich war und z.B. zwei Mausklicks (Einheit - Angriffsziel) schneller gemacht waren als man "Unit Alpha: Attack Target Bravo" gesagt hatte.
Als schönes Beispiel was auch in Trek eigentlich NICHT funktionieren dürfte fällt mir gerade die Szene an, in der Tuvok und Paris in Voyager auf dem Holodeck den Delta-Flyer designen. Tom sagt mehr oder minder, der Computer solle dem Entwurf "ein Paar Schwanzflossen" (oder so ähnlich) hinzufügen und schwupps erscheint das was er sich vorgestellt hat am Entwurf. Nur: Woher wusste der Computer, WO Tom die Flossen haben wollte, welchen Winkel, welche Form und Länge sie haben sollen? In der Realität müssten solche Parameter explizit angegeben werden.
Wiederum: Eine Sprachsteuerung hat ihre Einsatzgebiete, aber Trek ist an vielen Stellen schon wieder daran vorbei, wofür sie SINNVOLL wäre (gut, das ist aber wohl primär dem dramatischen Effekt zuzuschreiben).
Die Displays werden denselben Weg nehmen. Warum zB sollte es notwendig sein, eine "Touch" Oberfläche zu berühren, wenn der pC auch in der Lage ist meine Augenbewegung zu verfolgen und schon weiß wohin mein Finger gehen würde?
Simpel: Woher weiß der PC, was du mit der Augenbewegung machen wolltest? Bzw. dass dein Finger auch wirklich dorthin gehen wird, wo sich dein Auge befindet und du nicht nur einfach einen schnellen Blick auf die Konsole geworfen hast? Oder warum starrst du eine halbe Sekunde (oder so) auf eine Schaltfläche, wenn du sie in der Zeit auch einfach mit dem Finger drücken kannst *und* in der Zeit deine Augen schon der nächsten Aktion zuwenden kannst (was man übrigens auch in den Serien ein paar mal sieht - jemand drückt eine Schaltfläche, hat seine Augen aber bereits ganz woanders)?
Star Trek hatte diesen Trend mit TOS ursprünglich auch integriert... man denke nur an den Kasten in den Spock (Sulu hatte auch einen) regelmässig reinschaute oder an Uhuras Ohrsteck-Set. Also auch Star Trek ging hier in eine Richtung wo sich die Technik dem Mensch immer weiter annähert... bis... *hüstl* TNG diesen Gedanken durch Erfindung der Borg massiv diskreditiert hat und hier einen negativen bis Technik-feindlichen Aspekt in Star Trek verwurzelt hat den es bis dahin so nicht gab.
Interessante Ansicht, das mit der Technikfeindlichkeit. Wobei ich die nicht soo deutlich ausgedrückt sehe wie in anderen Franchises (z.B. WH40k und SW), der Gedanke ist sicher verfolgenswert.
Allerdings habe ich in Spocks und Sulus "Kästen" eigentlich nie etwas gesehen als eine Art "Mikroskop" (Spock) bzw. "Periskop" (Sulu). Und Uhuras Ohrstecker könnte man auch "nur" als Headset interpretieren, damit sie unter den Hintergrundgeräuschen der Brücke auch noch die Funksprüche versteht.
Aber wo ich den riesigen Block jetzt geschrieben habe: Natürlich geht bei sowas im Zweifelsfall die künstlerische "Vision" vor einer theoretischen Realisierbarkeit, es sei den man legt sich da selbst gerne Steine in den Weg indem man selbst den Anspruch hat, dass alles möglichst glaubwürdig wirkt.
Aber dann kommen wir in die Gefilde der Hard-Sci-Fi und die macht einem zumindest bei Star Trek in jedem Fall eine Menge Striche durch die Rechnung, auf der das Computersystem eher der kleinste Punkt ist.

Aber auch wenn man das alles aussen vor lässt... und mal "Nur" Star Trek als Serie oder Film hernimmt... Hat jemand eine Erklärung warum sich jemand derart klobige und massive Konsolen auf die Brücke stellen sollte?
[...]
Diese riesigen Konsolen machen allein aufgrund ihrer Bedienoberfläche überhaupt keinen Sinn (mehr)... und würden auf jeder zweckmässig eingerichteten - militärisch oder wissenschaftlich ausgerichteten - Brücke sofort weggesägt werden. Was wiederum zu kleineren Brücken führen würde... usw. Also das Star Trek Konsolen Design... ist... in Bezug auf die Benutzeroberfläche... eigentlich unerklärbar. :/
Was die Konsolen angeht muss ich dir aber wirklich recht geben, da wirkt die klobige Technik der TNG-Ära eher... seltsam für heutige Verhältnisse. Und eine plausible Erklärung dafür fällt mir jetzt auch nicht wirklich ein.