Eine KI macht semantische Analysen der Seiten, auf die sie Zugriff hat. Der Algorithmus ist sozusagen "das Lernen selbst" und nicht das, was später ausgegeben wird. Woher die auf deine Frage ausgegebenen Informationen ursprünglich kamen, ist nicht mehr relevant und verifizierbar, daher kann eine Frage wie z. B. "Woher hast du die Information, dass Gitarre x besser als Gitarre y ist" nicht eindeutig beantwortet werden.
Ich glaube Dir, dass das so ist - und das ist gleichzeitig das, was ich unbefriedigend und beunruhigend finde.
Lernen bedingt die Reflexion des Gelernten und des Lernprozesses, im akademischen Kontext auch die Benennung der Quellen. Offene Kommunikation über Gelerntes und die Endaussagen des Gelernten beinhaltet die Sagbarkeit und die Möglichkeit der Überprüfung der Quellen, der Prioritäten, der Kriterien etc., die beim Lernprozess getroffen wurden. Wenn das nicht der Fall ist, handelt es sich letztlich nur um Behauptungen. Und dann gibt es Behauptungen eines oder mehrerer Menschen und Behauptungen einer oder mehrerer KI.
Das ist ein absoluter Rückschritt in Bezug auf das Lernen, auf Argumentation, Kommunikation und letztlich die Aufklärung selbst. "Bediene Dich Deines eigenen Verstandes" ist als Postulat nicht mehr erfüllbar, sobald eine KI eingeschaltet wurde.
Wenn ich zu Anfang sagte, dass ich Dir mit obiger Behauptung glaube, muss ich das einschränken. So viel ich mitbekommen habe, wird KI auch mit beachtlichem Erfolg im wissenschaftlichen Kontext eingesetzt. Das bedingt aber doch ein Offenlegen der Quellen, des Forschungsweges und der Argumentation. Ich bin mir deshalb unsicher, ob es eine prinzipielle Unmöglichkeit für KI ist, das Ergebnis des Prozesses nachzuvollziehen oder offen zu legen oder ob es sich um eine letztlich aus Praxiserwägungen heraus getroffene Entscheidung handelt, das nicht zu tun oder vorzusehen. Dass das Offenlegen der Quellen und des Lernprozesses deutlich aufwändiger ist, ist für mich sicher.
x-Riff