Editorial Empa Quarterly #79

Das Denken outsourcen? Keine gute Idee!

15.05.2023 | MICHAEL HAGMAN

Alles um uns herum wird immer smarter: Verpackungen, Autos, Häuser, Text- und Bildverarbeitungsprogramme – aka «ChatGPT», «Midjourney» und Konsorten. Womit wir bei künstlicher Intelligenz (KI) wären. Diese dringt in immer weitere Bereiche unseres Lebens vor. War zunächst in erster Linie die industrielle Fertigung betroffen durch Robotik, Automation und smarte Prozesssteuerung, so «kreieren» Algorithmen inzwischen ganze Bücher und andere «Kunstwerke»; in den USA sind Chatbots wie «DoNotPay» bereits in juristischen Streitigkeiten im Einsatz.

Zeit also, sich zurückzulehnen und zu entspannen, während Computerprogramme und Roboter die Arbeit für uns machen? Wohl kaum; unser Gehirn und dessen Leistungsfähigkeit hängt vom steten Training ab – «use it or loose it». Ein profanes Beispiel: «Google Maps» dürfte kaum dazu beigetragen haben, unser räumliches Denken zu verbessern bzw. die Fähigkeit, sich mittels Karten und anderer analoger Hilfsmittel in einer dreidimensionalen Umgebung – unserer Welt – zu orientieren und sicher und schnell von A nach B zu gelangen. Dafür haben wir ja unser Smartphone, das uns schon sagt, wo wir wie abbiegen müssen. Doch unsere intellektuellen Fähigkeiten und kritisches Denken dürften in Zukunft nicht unwichtiger, sondern im Gegenteil immer wichtiger werden.

Denn so faszinierend all die Computer-generierten Produkte auch sein mögen, zumal, wenn man sie erstmals erlebt, so zeigen sich auch deutliche Schattenseiten. Denn KI hilft nicht nur, unsere reale Welt besser zu verstehen; mit ihr lässt sich sogar eine andere fotorealistische Wirklichkeit erschaffen – Stichwort «Deepfakes». Eine Einsatzmöglichkeit, die kaum dazu angetan ist, den sozialen Frieden – oder das Vertrauen in die Wissenschaft – zu fördern. Denn wenn alles «fake» ist, wem ist dann noch zu trauen?

Die Möglichkeiten scheinen also schier unbegrenzt. Doch wo alles machbar – sprich: manipulierbar – erscheint, ist kritische Reflexion umso notwendiger. Die Fragen sind dabei eigentlich immer die gleichen, wenn es um neue Technologien und deren Potenzial (zum Guten oder zum Schlechten) geht: Ist alles, was machbar ist, auch wünschenswert? Wo bringt KI vor allem Vorteile, wo sollten wir wachsam sein? Verstehen wir unser neues «Spielzeug» überhaupt gut genug, um es flächendeckend und ohne «Bedienungsanleitung» auf die Welt loszulassen? Und, für den Fall, dass dies nötig würde: (Wie) Lässt sich der Geist überhaupt wieder in die Flasche drängen?

Diese Überlegungen, also eine klassische Technologiefolgenabschätzung, kann uns keine auch noch so smarte KI abnehmen. Wir tun also gut daran, unsere Denkorgan auch künftig ordentlich zu trainieren und fit zu halten – trotz aller Annehmlichkeiten, die einem ChatGPT und Co. zweifellos bieten.

Was dies alles mit der Empa zu tun hat, fragen sie sich nun vielleicht. Nun, zum einen entwickeln wir autonome robotische Systeme und die Materialien hierfür – also die physischen Grundlagen für KI –, damit die Drohnen diverse, für den Menschen teils gefährliche oder schlicht unmögliche Aufgaben übernehmen können wie Infrastrukturüberwachung oder Brandbekämpfung, aber auch Umweltbeobachtungen in entlegenen, teils menschenfeindlichen Regionen – wie verschiedene Beispiele im aktuellen Fokus illustrieren. Zum anderen untersuchen wir auch regelmässig die Pros und Cons neuer Technologien wie KI und erforschen im geplanten «DroneHub» die vielfältigen Interaktionen zwischen Mensch und autonomen Robotern.

 

Michael Hagmann
Head of Empa communication
Redaktion / Medienkontakt

Dr. Michael Hagmann
Kommunikation
Tel. +41 58 765 4592


Follow us