Diskursethik und Large Language Modelle

Philipp Eder, M.A.  Philipp Eder, M.A.
Rechtsanwalt, Mediator sowie Geschäftsführer der Allianz Rechtsschutz-Service GmbH, München

Mediatoren arbeiten mit der Sprache. Die Wichtigkeit von Sprache ist gestiegen, seit alle Welt die Nutzung von Large Language Modellen (LLMs), die aktuell eine neue Stufe von KI ermöglichen, fokussiert. Beim sogenannten Prompten, also dem Stellen von Fragen an das Modell und zur Nutzung, zum Auffinden und Einbinden von digitalen Quellen ist ein präziser und prägnanter Umgang mit menschlicher Sprache erforderlich, um den gewünschten Nutzen zu erzielen. Andernfalls mäandert das digitale Sprachmodell irrlichternd durch die neuronalen Netzwerke der virtuellen Welten und verwirrt mit Antworten, die an der Fragestellung vorbeigehen.

Sprache ist aber seit jeher und weiterhin viel mehr als ein Werkzeug für die Anwendung von generativer KI über große Sprachmodelle. Sprache macht uns zu Menschen. Sie ermöglicht uns, zu versuchen, die Welt zu erklären und uns selbst zu verstehen. Sie ist das Medium, mit dem wir ethische und moralisch Fragen stellen und zu beantworten versuchen.

In meinem Beitrag „Sprache und Gerechtigkeit: Diskursethik und Large Language Modelle“ für die ZKM versuche ich einen Bogen von der Nutzung von Sprache im Sinne eines philosophischen Ansatzes über Sprachtheorien wie die Diskursethik bis hin zu den Wirkmechanismen in der Digitalwelt zu spannen.

Inspiriert von der Erinnerung an ein Proseminar an der Hochschule für Politik in München vor Jahrzehnten und eine damals von mir verfasste Arbeit über Jürgen Habermas Diskursethik hat mich der Gedanke seit Monaten immer wieder gestreift, ob die philosophisch beschriebenen Wirkmechanismen von Sprache eine Korrelation zur Relevanz von Sprache in der neuen digitalen Welt haben.

Die Diskursethik betont die Bedeutung der Sprache als Medium für die Verständigung und die Formulierung von Normen. Durch sprachlichen Austausch können Individuen gemeinsame Werte und Normen entwickeln, die sie als gerecht ansehen. Dies geschieht dann, wenn in einem diskursiven Prozess alle Beteiligten gleichberechtigt teilnehmen und die jeweiligen Standpunkte in einem offenen und respektvollen Dialog verteidigt und bestätigt werden können.

ChatGPT und andere große Sprachmodelle versuchen im Grunde immer, eine „vernünftige Fortsetzung“ eines beliebigen Textes zu erstellen, wobei mit „vernünftig“ gemeint ist, was man erwarten könnte, nachdem man gesehen hat, was Menschen auf Milliarden von Webseiten usw. geschrieben haben. Im Prinzip findet im Internet und in allen digitalen Quellen ein weltumspannender Diskurs über alle Fragen der Menschheit statt. Dieses Diskurses bedient sich die Maschine und versucht auf entsprechenden Befehl hin, ein Kondensat von Meinungen zu erstellen und dieses anhand der Quellenübersicht zu gewichten, zu bewerten und einzuordnen, um dann eine Antwort zu erstellen. LLMs arbeiten mit Wahrscheinlichkeiten.

Wahrscheinlichkeiten sind auch die Basis für philosophische Ansätze zur Wahrheitssuche in modernen philosophischen Theorien. Gemäß den Erkenntnissen über die empirische Falsifikation von Karl Popper sind wissenschaftliche Theorien lediglich unsichere Spekulationen, die durch die Suche nach widersprechenden Beobachtungen umgestoßen werden sollen. Eine Hypothese kann durch ein Testergebnis nicht bestätigt werden, sondern besagt lediglich, dass sie noch nicht widerlegt worden ist. Dies führt im Ergebnis dazu, dass Wahrheit und Wissenschaft durch mehr Wahrscheinlichkeit ersetzt werden.

In meinem Artikel versuche ich Impulse für eine Verknüpfung von Diskursethik und LLMs zu adressieren, die auch für die Praxis in der Mediation Anregungen zum Weiterdenken eröffnen sollen. Mediatoren werden zum einen nicht umhinkommen, LLMs auch in gewissem Umfang in ihre Tätigkeit zu integrieren, zum anderen werden alle Themen, die zu mediieren sind, zukünftig von Wirkkräften aus der Welt der Künstlichen Intelligenz beeinflusst sein. Sei es unmittelbar im Kern des Konflikts oder durch Gestaltungskräfte, die die Welt unseres Zusammenlebens insgesamt betreffen. Damit wir nicht in ein transhumanes Zeitalter abdriften, müssen wir das Eindringen von KI in Fragen von Recht und Moral, Ethik und Norm mitbedenken, um letztlich in unserem Wirken als Mediatoren die Stellung des Menschen über allen Maschinen stehend zu verteidigen. Gerade in der Mediation können wir diesen Anspruch verwirklichen: Im Mittelpunkt der Mensch.

Hinweis der Redaktion: Ausführlich zum Thema Eder, Sprache und Gerechtigkeit: Diskursethik und Large Language Modelle, in ZKM 4/2024 in ZKM 4/2024 (ZKM0069569) – auch im Rahmen eines kostenlosen Datenbanktests verfügbar.

 

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird niemals weitergegeben. Pflichtfelder sind mit einem * markiert

*
*