Der SMART DATA BLOG
Home
Responsible AI
Content in Context
Data-Driven Business
Responsible AI
Künstliche Intelligenz beinhaltet das Versprechen Probleme zu lösen. Menschen wie Maschinen tun dies, indem sie in einer Fülle unterschiedlicher Handlungsalternativen die richtige auswählen und selbst in komplexen Situationen die richtige Entscheidung treffen.
Doch was heißt richtig? Wie sicher ist sich denn die Maschine und inwieweit kann ich mich wirklich auf sie verlassen? Am Ende des Tages muss der Betreiber eines auf Basis von KI automatisierten Services weiterhin die Verantwortung tragen für die Entscheidung der KI und die daraus resultierenden Konsequenzen.
Ein verantwortungsbewusster Einsatz von KI ist mit den meisten derzeit verfügbaren KI-Services und Plattformen nicht möglich. In den allermeisten Fällen arbeiten diese als „Black Box“. Sie geben Antworten auf Fragen oder empfehlen konkrete Handlungen oder Aktionen, ohne dass derjenige, der diesen Service als Teil seiner Anwendung integriert, tiefergehenden Einblick in die Arbeitsweise der KI hat. Das beginnt „ganz unten“ auf der Ebene der Daten: eine KI trifft wie wir Menschen ihre Entscheidungen auf der Basis von erlerntem Wissen. Wissen wiederum basiert auf Erfahrung. Erfahrung sammeln heißt – technisch aus Sicht einer Maschine ausgedrückt – Daten zu sammeln.
MORESOPHY steht für „mehr Wissen“ (von griechisch: sophos – die Weisheit) und damit für eine Künstliche Intelligenz, die für maximal mögliche Transparenz und Kontrolle steht. Für KI-Lösungen, bei denen die Betreiber die KI verstehen und aktiv eingreifen können.
Ergebnis eines verantwortungsbewussten Umgangs bei der Entwicklung und Anwendung von KI ist Vertrauen. Vertrauen in eine KI ist für die produktive Nutzung unerlässlich. Sie ist Voraussetzung für die notwendige Akzeptanz beim Management wie bei den Anwendern. Doch was ist trusted AI? Und was sind die Rahmenbedingungen, unter denen Vertrauen möglich ist?
Grundlage für Vertrauen – bei Maschinen wie auch in der Beziehung zu Menschen – ist Authentizität. Auch eine KI ist niemals perfekt. Aber wir können von ihr erwarten, dass sie wahrhaftig ist – auch in dem Aufzeigen ihrer eigenen Grenzen. Wir erwarten Konsistenz statt Sprunghaftigkeit in ihrem Verhalten. Wir möchten nachvollziehen, warum die KI uns Empfehlungen gibt und auf welchen Erfahrungen sie basieren.
Diese Anforderungen an KI führen zu dem Konzept der Explainable AI. Die drei Begriffe Responsible AI, Trusted AI und Explainable AI bedingen sich gegenseitig.
Die CONTEXTSUITE-Plattform erfüllt diese Rahmenbedingungen, indem sie durch die Aufbereitung und visuelle Darstellung von Daten beliebiger Herkunft Transparenz schafft. Und zwar entlang des gesamten Life-Cycle von Künstlicher Intelligenz – von der Qualität der Datenbasis, von welcher die KI lernt, über die Performance und Verlässlichkeit der Modelle bis hin zu einem erklärenden Ansatz, der über visuelle Dashboards nachvollziehbar und prüfbar macht, warum die KI zu ihrer Empfehlung kommt.
Alle Beiträge
Deutschland will Trusted AI
Auf Beschluss des Bundestags fördert das Bundesministerium für Wirtschaft und Klimaschutz die Weiterentwicklung der Data-Analytics Platform CONTEXTSUITE. Künstliche Intelligenz hat die Welt erobert. Die Erwartungen an KI-Anwendungen sind enorm und...
ChatGPT und der fehlende Trust: Ein Leitfaden für verantwortungsvollen Einsatz von Trusted AI in Unternehmen
Das Release der KI-Anwendung ChatGPT dominiert aktuell die öffentliche Debatte über Fähigkeiten und Auswirkungen von Künstlicher Intelligenz. Mit seinen beeindruckenden Fähigkeiten im Bereich der Verarbeitung menschlicher Sprache und Vielseitigkeit...
Bias im Maschinellen Lernen
Automatische Entscheidungssysteme, die auf maschinellem Lernen basieren, enthalten oftmals einen sogenannten „Bias“ (deutsch: Vorurteil, Verzerrung). Darunter versteht man Bewertungen, die aufgrund unzureichender Kenntnis und somit einseitiger...
Ethik im Maschinellen Lernen
Kürzlich machte Google Schlagzeilen, weil es innerhalb weniger Monate bereits seine zweite leitende Forscherin zur Ethik in der KI gefeuert hat. Timnit Gebru und ihre Kollegin Margaret Mitchell forschten an dem Paper "On the Dangers of Stochastic...
Sehen, wohin es geht: Warum Visualisierungen für das agile Datenmanagement wichtig sind
Können Sie sich noch vorstellen ohne Hilfsmittel durch die Stadt zu navigieren? Was machen Menschen, denen das scheinbar mühelos gelingt anders? Der Schlüssel liegt in einem ungefähren inneren Stadtplan, den erfolgreiche Navigatoren nutzen. In...
Überwachtes Lernen anschaulich erklärt
Im Allgemeinen unterscheidet man im Machine Learning zwischen vier verschiedenen Typen von Modellen: Dem überwachten Lernen (supervised Learning), dem unüberwachten Lernen (unsupervised Learning), dem teilüberwachten Lernen und dem Reinforcement...
Machine Learning mit kundenspezifischen Daten
KI ist immer nur so gut, wie die Daten, die ihr zur Verfügung stehen. Für unterschiedliche Use-Cases benötigt man eine ausreichende Anzahl an Daten, um eine sehr gute Klassifikationsleistung zu erzielen. Oftmals geht es nicht nur um spezielle...
Connect
Nutzen Sie Ihre Daten
Treten Sie mit uns in Kontakt und lassen Sie sich von den unzähligen erfolgreichen Use Cases überzeugen. Gerne findet die MORESOPHY eine passgenaue Lösung, wie wir nachhaltig Ihr Geschäftskonzept erfolgreicher machen können.
FOLLOW
Folgen Sie uns
Gerne können Sie unseren Updates und Neuigkeiten auch auf folgenden Social Media Plattformen verfolgen: