Cognitive Computing: Fehler im System oder im Menschen?

U.S. Army Photo of en:EDVAC as installed in en:BRL building 328. (modifiziert)

Cognitive Computing tritt als neue Technologie auf den Plan und verspricht uns schlauer und effektiver zu machen. Google Now, Apple Siri oder Microsoft Cortana sind bereits beim Konsumenten angekommen. Neu ist, dass Unternehmen selber mit den Schnittstellen, die z. B. IBM Watson, Google und Microsoft Azure ML anbieten, nach den Sternen greifen können. Schlaue Assistenten versprechen u. a. bessere Antworten auf unsere Fragen zu haben – manchmal sogar auf welche, die wir uns noch gar nicht gestellt haben.

Der Mensch erweitert seine Möglichkeiten mit einem neuen Werkzeug. Die Fähigkeit des Menschen, abstrakte Werkzeuge herstellen zu können, wurde lange als Alleinstellungsmerkmal angesehen. Inzwischen ist sie bei einer Vielzahl anderer Lebewesen nachgewiesen worden. Kognitiv unterstützende Werkzeuge haben eine neue, alltägliche und selbstverständliche Qualität, die unter Philosophen unter dem Begriff Extended Mind beleuchtet wird, d. h. inwiefern diese ein unbewusster Teil von uns werden. Diese Werkzeuge sind in der Lage, unser Menschenbild zu verändern und werfen Fragen auf:

Wer ist in dem System Mensch-Maschine für eine Fehlfunktion verantwortlich? Damit meine ich nicht nur den sprichwörtlichen, plötzlichen GAU sondern auch kleinste Tendenzen, die große Wirkungen haben können.

Sind wir Menschen darauf vorbereitet? Was bedeutet das für den Einsatz dieser Technologien durch Unternehmen und Institutionen?