Lebensmitteletiketten als Vorbild für KI-Modelle

26.07.2024
Von 
Markus W. Hacker ist Direktor Enterprise Business DACH bei NVIDIA
Eine klare und einfache Darstellung wichtiger Informationen zu KI-Modellen kann für mehr Transparenz und Vertrauen sorgen.
Lebensmittelkennzeichnung macht transparent, was in einem Produkt enthalten ist. Ein Vorbild für KI-Modelle?
Lebensmittelkennzeichnung macht transparent, was in einem Produkt enthalten ist. Ein Vorbild für KI-Modelle?
Foto: Drazen Zigic - shutterstock.com

Lebensmitteletiketten zeigen uns wichtige Informationen über den Nährwert eines Produkts. Verbraucher lesen darauf, wie viel Fett, Eiweiß oder Zucker in ihren Nahrungsmitteln enthalten ist. Aber das war nicht immer so. Erst seit 2016 müssen EU-weit alle vorverpackten Lebensmittel eine Nährwerttabelle auf dem Etikett zeigen. Lebensmittelkennzeichnung macht ebenso transparent, was in einem Produkt enthalten ist. Das ermöglicht es den Verbrauchern, fundierte Kaufentscheidungen zu treffen, und stärkt das Vertrauen in die Produkte.

Nun hat ein Laib Brot auf den ersten Blick nicht viel mit einer hochmodernen künstlichen Intelligenz gemeinsam. Trotzdem kann die KI-Branche von Lebensmitteletiketten viel über die Grundsätze und die Notwendigkeit von KI-Transparenz lernen.

Transparenz und Vertrauen in KI schaffen

Wie das Sprichwort sagt, wird Vertrauen Tropfen für Tropfen verdient, aber man verliert es in Litern. Vertrauen in KI lässt sich nicht auf eine einzige Maßnahme oder einen Ansatz reduzieren. Vielmehr geht es darum, kontinuierlich Vertrauen aufzubauen und aufrechtzuerhalten. Vertrauenswürdige KI ist ein Ansatz für die KI-Entwicklung. Dabei bilden Sicherheit und Transparenz die Grundlage. Sie müssen von Anfang an in jeden Aspekt der Wertschöpfungskette integriert werden, statt sie nachträglich zu berücksichtigen.

Darüber hinaus bilden Datenschutz und Nichtdiskriminierung wichtige Eckpfeiler einer vertrauenswürdigen KI. Das bedeutet, dass vertrauenswürdige KI-Modelle keine Vorurteile und Diskriminierung enthalten sollten - auch wenn diese unbeabsichtigt sind. Zudem sollten Entwickler darauf achten, Gesetze und den Datenschutz einzuhalten. Wichtig ist zudem, dass die KI wie beabsichtigt funktioniert.

Damit Entwickler, Nutzer und Interessengruppen KI-Modellen vertrauen können, müssen sie verstehen, wie sie funktionieren. Genau zu beschreiben, wie das Modell trainiert wurde, und alle bekannten Risiken zu identifizieren, dient der Transparenz. Diese führt letztlich zu Vertrauen. Dadurch wird nicht nur sichergestellt, dass die richtigen Modelle für die entsprechenden Anwendungsfälle von KI-Experten eingesetzt werden, sondern auch, dass die Beteiligten diese Werkzeuge verstehen und sinnvoll nutzen können.

Vertrauen in KI verbessern

Model Cards wie zum Beispiel von Nvidia greifen das Konzept von Lebensmitteletiketten auf, um mehr Einblicke in ein KI-Modell bieten.
Model Cards wie zum Beispiel von Nvidia greifen das Konzept von Lebensmitteletiketten auf, um mehr Einblicke in ein KI-Modell bieten.
Foto: Nvidia

In der gesamten Wertschöpfungskette profitieren alle Beteiligten von transparenter KI. Der effektivste Weg zur Verbesserung der Transparenz und zum Nachweis der Vertrauenswürdigkeit in der Verwendung von KI besteht in sogenannten Model Cards. Das sind kurze Dokumente, die auf einen Blick wichtige Informationen über Modelle für maschinelles Lernen liefern.

Bei der Entwicklung von Model Cards kann das Konzept von Lebensmitteletiketten der Orientierung dienen: Sie müssen einfach zu verstehen sein und klare Einblicke in das KI-Modell bieten. Es braucht keinen Ernährungswissenschaftler, um zu erkennen, ob ein bestimmtes Lebensmittel gesund ist, und es sollte auch kein KI-Entwickler nötig sein, um zu verstehen, wie ein bestimmtes KI-Modell funktioniert. Die Model Cards sollten dementsprechend keine Fachsprache enthalten und standardisiert sein.

Auch wenn in diesem Bereich bereits einige Fortschritte erzielt wurden, bedarf es einer größeren Harmonisierung in der gesamten Branche. KI-Tools spielen bereits eine grundlegende Rolle in unserer Gesellschaft, und deshalb ist es wichtig, dass diese Tools für jeden zugänglich gemacht werden.

Ohne Model Cards ist es schwierig festzustellen, ob ein Modell für die von einem bestimmten Unternehmen gewünschte Verwendung geeignet ist. Model Cards verhindern, dass unnötig Zeit damit zugebracht wird, nachträglich Informationen zu ermitteln, die in der Wertschöpfungskette hätten weitergegeben werden müssen. Außerdem ermöglichen sie es Unternehmen und Nutzern, durchdachte Entscheidungen entsprechend ihren Bedürfnissen zu treffen.

Hinzu kommt: Es wird deutlich, dass Unternehmen zunehmend Transparenz verlangen und erwarten, wenn es um KI geht. Denn bei solch mächtigen Werkzeugen ist es wichtig, die Verantwortung zu erkennen, die jeder Teil der Wertschöpfungskette trägt. Daher ist es für Hersteller wichtig, Zugriff auf alle relevanten Informationen bereitzustellen und kein Wissen zurückzuhalten.

Model Cards flächendeckend einsetzen

Auch wenn der Weg zu vollständig transparenter KI noch weit ist, ist sich die Branche einig, Model Cards zu implementieren. Initiativen wie Model Card ++ sollen KI-Modelle transparenter machen, indem sie Informationen über Modellversionskennungen, Lizenzbeschränkungen und andere qualitative Informationen enthalten.

Eine von NVIDIA durchgeführte Marktuntersuchung hat gezeigt, dass Model Cards die Nutzung von KI-Modellen steigern. Um das Beste aus aktuellen und zukünftigen Modellen herauszuholen, ist es wichtig, ihre Grenzen zu verstehen. Zudem müssen die Daten, auf denen sie trainiert wurden, einsehbar sein und Klarheit über ethische Überlegungen bestehen. Nur dann kann die Transparenz für Nutzer erhöht und das notwendige Vertrauen in die Entwicklung und den Einsatz von Künstlicher Intelligenz geschaffen werden. (mb)