Mache die KI nicht zum Boss!

Ich komme gerade vom jährlichen Hautscreening, also einer Hautkrebs-Früherkennung beim Arzt. Das mache ich schon seit vielen Jahren regelmäßig. Meine Hautarzt-Praxis setzt dabei eine digitale Auflichtmikroskopie (Videodermatoskopie) ein, um Pigmentmale zu speichern und im Zeitverlauf (Verlaufskontrolle) zu vergleichen. Seit einiger Zeit ist diese auch KI-gestützt.

Als ich meinen Arzt interessiert auf die KI-basierte Diagnostik ansprach, war seine Reaktion nicht gerade euphorisch. Ich vermutete zunächst, er möchte seinen Expertenstatus und sein Herrschaftswissen nicht verlieren. Aber das war nur die halbe Wahrheit. Er wies darauf hin, dass er sich immer auf sein kritisches Auge verlässt. Die KI-basierte Diagnostik könnte vielleicht fachfremden Ärzten eine Art von Sicherheit geben. Sie helfe ihm aber nicht bei der Entscheidung. Als er mir zeigte, dass bei einigen Pigmentierungen die durch die KI-gestützte Bilderkennung ermittelte Krebs-Entwicklung-Wahrscheinlichkeit eher deutlich gesunken war, während sie an anderen Stellen entweder gleich blieb oder leicht stieg, was ja der natürliche Lauf der Dinge wäre, erkannte ich, warum seine Reaktion auf die Diagnose seines Gerätes so zurückhaltend war. Es braucht den kritischen, letzten Blick, die finale Entscheidung des Menschen.

Ähnliches beobachte ich 👀 – auch durch eigene Erfahrungen in Projekten – im Umgang mit generativer KI. Wir können uns sehr schnell eine Masse an Facetten eines Themengebietes als wohl formuliertes, scheinbar abgabereifes Ergebnis ausspucken lassen. Wir können sehr effizient Quellen (sofern sie nicht halluziniert sind) erfassen. Und wir lassen uns daraus scheinbar relevante Inhalte entwickeln.

🔎 Meine Wahrnehmung: Sobald wir das Steuer aus der Hand geben, gewinnt die KI die Oberhand über die Ergebnisse. Wenn das Endergebnis nicht sogar falsch ist, dann ist es mindestens nur Durchschnitt. Wir müssen lernen, KI als Impulsgeber zu sehen. Wir müssen noch lernen, neue Ideen zu einem großen Gedanken zu verknüpfen, wenn wir kritisch mit dem wahrscheinlichkeitsbasierten Wissen der generativen KI umgehen. Doch viel zu oft verlieren wir den Fokus. Wir werden zu Perfektionisten, die immer tiefer buddeln und dann den roten Faden verlieren. Wir werden zu Getriebenen, die mit der KI sogar ineffizienter werden oder zu weniger Ergebnissen kommen.

Genau das wollte ich hinterfragen und bin u. a. auf folgende interessante Studien gestoßen. Sie bestätigen meine Wahrnehmung:

📌 MIT, 2025, Studie “Your Brain on ChatGT”

Kernergebnis:
Die Gedächtnisleistung und das Lernen von Wissen nimmt bei reiner Nutzung von generativer KI ab. Du lässt produzieren. Du entwickelst nicht mehr selbst. Du bleibst oder wirst dumm.

📌 Industrieverband Büro und Arbeitswelt e.V. (IBA), 2025, Studie “Kollaboration mit KI”

Kernergebnis:
KI entlastet Teams von Routinen und verspricht Raum für strategische und kreative Arbeit. Das Problem: Unternehmen, die unter Effizienz- und Performance-Druck stehen, werden diesen Raum nicht automatisch freigeben. Unternehmen müssen erkennen, was die Vorzüge der natürlichen Intelligenz und Urteilskraft ihrer Mitarbeiter für die Qualität der Wertschöpfung des Unternehmens bedeuten. Teams müssen lernen KI als Sparringspartner (und nicht als Entscheider) in ihre Prozesse zu integrieren.

📌 Apple, 2025, Shojaee, P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M.,  “The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity.”

Kernergebnis:
Das Apple Team verglich LLMs mit sogenannten LRMs (Large Reasoning Models), also generativer KI, welche mehr Tokens für das Hinterfragen und Bewerten von Kontexten als die rein wahrscheinlichkeitsbasierten LLMs verwenden.“ Das überraschende Ergebnis: bei Problemen geringer Komplexität waren die LLMs .. besser als die – angeblich denkenden – LRMs (quantifiziert im prozentualen Anteil korrekter Lösungen). Bei mittlerer Komplexität schnitten die LRMs besser ab und bei der höchsten Komplexität kollabierten alle Modelle … Untersucht wurden KIs wie o3-mini, Claude und Deepseek (jeweils in ihren LLM und LRM Versionen).” Heißt also, sobald wir komplexere Zusammenhänge durchdringen wollen, hilft uns KI nur begrenzt.

📌 Brand Science Institute, 2025, “Denken wir durch KI schneller?”

Kernergebnis:
Am deutlichsten profitieren durchschnittlich intelligente Studienteilnehmer von der Nutzung der KI. Sie konnten ihre Denkgeschwindigkeit im Untersuchungszeitraum rasch und nachhaltig steigern. Die weniger intelligenten Studienteilnehmer konnten anfänglich schneller Probleme lösen. Sie schienen aber KI als “bequeme Lösung” zu sehen und nicht als Werkzeug. Im späteren Verlauf der Studie verflachte ihre Problemlösungsleistung. Die hochbegabten Teilnehmer der Studie profitieren in Bereichen, in denen sie sich gut auskannten, durch neue Impulse, Inspiration und Wissenstransfer. In Gebieten, in denen sie weniger ein Crack waren, übernahm ihr Perfektionismus die Oberhand und ließ sie in die tiefen Sphären des Wissens abgleiten und hemmte eine beschleunigte Problemlösungsleistung.

💡 Die Studien legen nahe, dass der kritische Umgang mit KI in Bezug auf Qualität und Effizienz des Ergebnisses entscheidend ist. Wer KI einfach laufen lässt, delegiert sein Denken. Wer sie als Partner herausfordert, schärft es. Human-in-the-Loop ist kein ethischer Zügel – es ist der Turbo für bessere Resultate.

Wer KI als “stochastischen Papagei” (so von Alena Buyx, ehemalige Vorsitzende des Deutschen Ethikrates, wunderbar treffend bezeichnet) nicht hinterfragt, wird nur durchschnittliche Ergebnisse reproduzieren. Und wer hochkritisch und hochintelligent mit der KI in der Tiefe und Breite des Wissenskontextes gräbt, der verliert den Fokus, der wird keine Schwerpunkte mehr bilden können und die richtigen Verknüpfungen synthetisieren. Dessen Ergebnis birgt die Gefahr, verwaschen und irrelevant zu sein. Es gibt aktuell viel zu viele dieser belanglosen, leidlichen, weichgespülten und bedeutungslosen Inhalte.

Lasst uns also – im übertragenen Sinne – ein bisschen mehr wie ein Doktor mit kritischer Diagnostik auf KI-generierte Ergebnisse blicken. Unsere Diagnosefähigkeit entscheidet über das, was gut ist, was richtig ist, was relevant ist und was im Fokus unserer Aufmerksamkeit stehen sollte.

Im Sinne der Headline dieses Artikels heißt das: Gebe KI niemals Autorität!

Hinterlasse einen Kommentar