Überspringen zu Hauptinhalt

DD #013 Künstliche Intelligenz – Grundlagen und die KI-Verordnung

DD #013 Künstliche Intelligenz – Grundlagen Und Die KI-Verordnung

Künstliche Intelligenz - ein kurzer historischer Abriss

Hinsichtlich des Themas „Künstliche Intelligenz“ begann wohl alles mit dem britischen Mathematiker Alan Turing. Einigen unter uns ist er sicherlich in Verbindung mit der Entschlüsselung des Enigma-Codes im Zweiten Weltkrieg bekannt. In einem fachlichen Aufsatz stellte er 1950 die Frage „Können Maschinen denken?“ Alan Turing entwickelte den sogenannten Turing-Test für die Bewertung einer Maschine hinsichtlich der Intelligenzfrage.

Dieser wäre von der Maschine bestanden, wenn ein Mensch nach je einer Unterhaltung mit der Maschine (die für ihn jedoch unsichtbar und daher nicht als Maschine erkenntlich war) und einer Unterhaltung mit einem – ebenfalls für ihn nicht sichtbaren Menschen am Ende nicht sagen konnte, ob er diese nun mit einem Menschen oder einer Maschine geführt hatte. Dieser Test wurde – die Sprachkonversation wie wir sie heute mit Computern kennen, gab es noch nicht – mittels Tastatur und Bildschirm ausgeführt.

Der Begriff „Künstliche Intelligenz“ und das damit unterstellte maschinelle Lernen selbst etablierte sich wohl erst im Jahre 1956 als es einigen Wissenschaftlern gelang, einen Großrechner so zu programmieren, dass er das Spiel Dame immer wieder gegen sich selbst spielte und mit jeder neuen Partie eigene Schlüsse über die Wahrscheinlichkeit zog das Spiel zu gewinnen oder zu verlieren. Am Ende war der Rechner einem menschlichen Gegenspieler uneinholbar überlegen.

Mit den 80er Jahren kamen dann mit den künstlichen neuronalen Netzen neue Impulse in die Entwicklung künstlicher Intelligenz. Von der breiten Öffentlichkeit wurde diese Form scheinbarer Intelligenz aber vermutlich erst mit dem Sieg von IBMs Deep Blue im Jahre 1997 über den Schachweltmeister Garri Kasparow wahrgenommen.

Künstliche Intelligenz heute

Der Einsatzbereich der künstlichen Intelligenz ist lange über die Verwendung in Spielen oder Spielesystemen herausgewachsen und findet sich heute in Maschinen, Anlagen, Computersoftware und sonstigen Produkten für nahezu alle nur erdenklichen Anwendungen und vielen anderen Bereichen wie etwa Dienstleistungen.

So ist es kein Wunder, dass sich auch die europäische Kommission dieses Themas annahm und im April 2021 einen Vorschlag über die „Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ vorlegte. Diese nenne ich der Einfachheit halber im Folgenden KI-Verordnung und den etwas sperrigen Begriff „System der künstlichen Intelligenz“ ersetze ich aus gleichem Grund durch „KI-System“.

Doch zuerst: Wie definiert man heute ein KI-System?

Artikel 3 der KI-Verordnung führt hierzu wie folgt aus: „Ein KI-System ist eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren;

Die in Anhang I der Verordnung aufgeführten Techniken und Konzepte der künstlichen Intelligenz umfassen beispielsweise das maschinelle Lernen mit verschiedenen Methoden sowie mit und ohne Beaufsichtigung einschließlich des sogenannten Deep Learnings. Das Deep Learning – also das tiefe Lernen – ist eine spezielle Methode der Informationsverarbeitung unter Benutzung künstlicher neuronaler Netze und stellt einen Teilbereich des maschinellen Lernens (machine learning) dar. Der Begriff „tief“ kommt übrigens von den Deep Neural Networks (DNNs) die aus vielen Schichten linearer und nichtlinearer künstlicher Neuronen bestehen. Deep-Learning-Modelle können selbst lernen, indem das erworbene Wissen ständig mit neuen Inhalten verknüpft wird, was wiederum den Wissensstand vergrößert. Das Deep Learning wird beispielsweise im Zusammenhang mit dem autonomen Fahren eingesetzt.

Beim maschinellen Lernen werden Muster und Gesetzmäßigkeiten in Datensätzen erkannt, anhand derer wiederum Lösungen entwickelt werden. Aus diesen gewonnenen Erfahrungen wird gewissermaßen Wissen erzeugt.

Anders als jedoch beim Deep Learning kann dies – zumindest wohl bis auf weiteres – nur durch Zutun des Menschen erfolgen, der die erforderlichen Daten sowie den notwendigen Algorithmus bereitstellt. Maschinelles Lernen ist heute in vielen Bereichen von großer Bedeutung so zum Beispiel in der Medizin bei der Erkennung von Krebs.

Laut dem von der EU-Kommission vorgelegten Vorschlag für einen Rechtsrahmen zur Künstlichen Intelligenz werden nachfolgende Ziele angestrebt:

  • Die auf dem Markt der Europäischen Union in Verkehr gebrachten und verwendeten KI-Systeme müssen sicher sein und die bestehenden Grundrechte und Werte der Union wahren.
  • Für die Förderung von Investitionen in die KI und innovative KI muss Rechtssicherheit gewährleistet sein.
  • Die Führung und wirksame Durchsetzung des geltenden Rechts zur Wahrung von Grundrechten und Sicherheitsanforderungen an KI-Systeme müssen gestärkt werden.
  • Die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen muss erleichtert und eine Marktfragmentierung verhindert werden.

Die Bestimmungen des Vorschlags sind in zwölf Titel unterteilt, die von römisch I bis römisch XII durchnummeriert sind. Auf einige von ihnen gehe ich im Folgenden ein.

Muster-Betriebsanleitungen, Vorlagen für Warnhinweise, sowie Checklisten, E-Books und vieles mehr. Besuchen Sie jetzt unseren Online-Shop für die Technische Dokumentation!

Titel I beschreibt den Gegenstand der Verordnung, Begriffsbestimmungen sowie den Anwendungsbereich der Vorschriften für Inverkehrbringen, Inbetriebnahme und Verwendung von Systemen der künstlichen Intelligenz. Die Begriffsbestimmungen haben dabei zum Ziel hinsichtlich der Entwicklungen in der Technologie der Künstlichen Intelligenz möglichst neutral und zukunftsorientiert zu sein.

Titel II legt fest, welche Praktiken unter dem Einsatz künstlicher Intelligenz verboten sind. Hierzu gehören alle Systeme der KI, die als nicht annehmbar gelten, da sie Unionswerte wie beispielsweise Grundrechte verletzen. Verboten sind demnach beispielsweise Praktiken zu Manipulation von Personen mittels unterschwelliger Beeinflussung oder das Ausnutzen von Schwächen bestimmter schutzbedürftiger Zielgruppen wie Menschen mit Behinderungen oder Kinder, das sogenannte Social Scoring bei dem das soziale Verhalten von Bürgern durch Behörden bewertet wird oder die biometrische Fernidentifizierung von Personen in Echtzeit in öffentlichen Bereichen.

Im Rahmen des risikobasierten Ansatzes der Verordnung wird in drei Anwendungen künstlicher Intelligenz unterschieden: die mit nur minimalen Risiken, mit hohen Risiken und die mit unannehmbaren Risiken. Die mit hohen Risiken für Gesundheit, Sicherheit und Grundrechte von Personen werden in Titel III behandelt. Diese sogenannten Hochrisiko-KI-Systeme können bei Einhaltung bestimmter Anforderungen und Durchführung einer Konformitätsbewertung jedoch auf dem europäischen Markt zugelassen werden.

Ob ein KI-System als Hochrisiko-System eingestuft wird, hängt sowohl von der Systemfunktionalität als auch dem Systemzweck und der Art und Weise der jeweiligen Anwendungen ab.

Gemäß Artikel 6 (Titel III) gilt ein KI-System dann als Hochrisikosystem, wenn die beiden folgenden Bedingungen erfüllt sind – Zitat:

a) das KI-System soll als Sicherheitskomponente eines unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder ist selbst ein solches Produkt;

b) das Produkt, dessen Sicherheitskomponente das KI-System ist, oder das KI-System selbst als Produkt muss einer Konformitätsbewertung durch Dritte im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden.

Darüber hinaus gelten die in Anhang III genannten KI-Systeme ebenfalls als Hochrisiko-KI-Systeme. Dies sind beispielsweise Systeme zur biometrischen Fernidentifizierung von Personen in Echtzeit bzw. zu einem späteren Zeitpunkt oder Einrichtungen, die als Sicherheitskomponenten in der Verwaltung oder im Betrieb öffentlicher Infrastrukturen eingesetzt werden.

Titel IV regelt die Transparenz im Sinne der Anwender von KI-Systemen. So muss beispielsweise natürlichen Personen die mit einem KI-System interagieren, ersichtlich sein, dass sie es mit einem KI-System zu tun haben. Hiervon darf nur abgewichen werden, wenn aus dem Zusammenhang mit der Nutzung eindeutig ersichtlich ist, dass KI im Spiel ist.

Eine weitere Regelung betrifft einen möglicherweise immer populärer werdenden Bereich: So müssen Nutzer von KI-Systemen, die audiovisuelle Inhalte erzeugen oder manipulieren welche der Realität – egal ob es sich um Personen, Gegenstände, Orte oder Ereignisse handelt – deutlich ähneln (Stichwort Deepfake), eindeutig darlegen, dass diese Inhalte rein künstlichen Ursprungs und daher nicht real sind.

Mit Titel VII soll die Einrichtung einer EU-weiten und öffentlich zugänglichen Datenbank realisiert werden, die eigenständige Hochrisiko-KI-System welche insbesondere Auswirkungen auf die Grundrechte haben führt. In diesem Zusammenhang sollen die Anbieter dieser Systeme verpflichtet werden, diese vor dem Inverkehrbringen oder einer anderweitigen Inbetriebnahme in der Datenbank zu registrieren.

Titel VIII legt im Rahmen der Beobachtungs- und Meldepflichten fest, dass Anbieter von Hochrisiko-KI-Systemen nach dem Inverkehrbringen ein System zur Beobachtung der Produkte einzurichten und zu dokumentieren haben. Dabei sind über die gesamte Produktlebensdauer alle Daten aktiv und systematisch zu erfassen, dokumentieren und analysieren. Mit diesen Daten ist der Anbieter verpflichtet, fortlaufend die Einhaltung der in Titel III Kapitel 2 aufgeführten Anforderungen zu bewerten.

Das Kapitel 2 in Titel III definiert Anforderungen an Hochrisiko-KI-Systeme die einzuhalten sind. Hierbei ist für diese Systeme ein Risikomanagementsystem einzurichten, anzuwenden, dokumentieren und aufrechtzuerhalten. Dies ist als kontinuierlicher Prozess definiert, der während des gesamten Produktlebenszyklus eines KI-Systems anzuwenden und fortlaufend zu aktualisieren ist. Dieser ähnelt der uns bereits bekannten Risikobeurteilung und umfasst folgende Schritte:

  • Alle vom KI-System ausgehenden bekannten und vorhersehbaren Risiken müssen ermittelt und analysiert werden
  • die in diesem Zusammenhang ermittelten Risiken sind abzuschätzen und zu bewerten
  • Risiken die in Zusammenhang mit der Produktbeobachtung (siehe Artikel 61) und den sich daraus ergebenden Daten nach dem Inverkehrbringen bekannt werden, sind ebenfalls zu bewerten.
  • Die Ergreifung entsprechender Maßnahmen für das Risikomanagement

Um die bestmöglichen Risikomanagementmaßnahmen zu ermitteln, sind entsprechende Tests der Hochrisiko-KI-Systeme durchzuführen. Die Tests sind zu jedem möglichen Zeitpunkt während des Produktentwicklungsprozesses, in jedem Fall jedoch noch vor dem Inverkehrbringen und der Inbetriebnahme durchzuführen.

Sie wollen die Übersicht behalten? Dann nutzen Sie unsere kostenlosen Checklisten für die Technische Dokumentation und zur Überprüfung Ihrer Betriebsanleitungen!

Schauen wir nun noch auf einige ausgewählte Artikel der KI-Verordnung:

Die technische Dokumentation eines Hochrisiko-KI-Systems

Gemäß Artikel 11 ist die technische Dokumentation eines Hochrisiko-KI-Systems noch vor dem Inverkehrbringen oder der Inbetriebnahme zu erstellen. Dabei muss sichergestellt sein, dass die Dokumentation nachweist wie das Hochrisiko-KI-System die Anforderungen des Kapitels 2 erfüllt. Hierzu muss die technische Dokumentation mindestens die in Anhang VI aufgeführten Angaben enthalten. Die zuständigen nationalen Behörden und notifizierten Stellen müssen Zugriff auf sämtliche Informationen haben, welche ermöglichen zu beurteilen, ob das KI-System die gestellten Anforderungen erfüllt.

Transparenz und Bereitstellung von Informationen für die Nutzer

Gemäß Artikel 13 (Titel III) müssen Hochrisiko-KI-Systeme so konzipiert sein, dass ihr Betrieb für den Benutzer so transparent ist, dass er in der Lage ist, die Ergebnisse aus dem Betrieb angemessen zu interpretieren und anzuwenden. Hinsichtlich der Transparenzgewährleistung ergeben sich diverse Pflichten für den Benutzer dieser Systeme, hierauf geht Kapitel 3 im gleichen Titel genauer ein.

In Bezug auf Nutzerinformationen schreibt Artikel 13 vor, dass diese für Hochrisiko-KI-Systeme in einem geeigneten digitalen Format bereitgestellt oder auf eine andere Weise mit Gebrauchsanweisungen zu versehen sind. Neben den Angaben wie wir sie auch aus Informationsprodukten anderer Produkte kennen wird hier festgelegt, dass auch Angaben zum Maß der Cybersicherheit eines solchen Systems enthalten sein müssen. Darüber hinaus müssen auch Informationen über die zu erwartende Lebensdauer sowie sämtliche Wartungs- und Pflegearbeiten hinsichtlich der korrekten Funktion des Systems inklusive erforderlicher Software-Updates enthalten sein. Insbesondere letzterer Punkt dürfte nach meiner Ansicht für viele Hersteller eine große Herausforderung sein, da die Entwicklung wohl in kaum einem Segment so rasch voranschreitet wie in der Informationstechnologie und damit verbunden die möglichen Bedrohungen der IT-Sicherheit.

Menschliche Aufsicht

Nun möchte man, auch völlig zu Recht, wie ich der Meinung bin, ein KI-System derzeit nicht ohne geeignete Kontrolle betreiben. Mir ist zwar nicht bekannt, welche konkreten Befürchtungen die Europäische Kommission zu den Vorgaben in Artikel 14 veranlassten, wer jedoch den Roman von Arthur C. Clarke „2001 – A Space Odyssey“ kennt, wird jedoch möglicherweise eine Ahnung davon bekommen.

In diesem 1968 erschienenen und von Stanley Kubrick im gleichen Jahr verfilmten spannenden Werk spielt die eigentliche Hauptrolle ein Computer – der HAL 9000. Er ist ein hochentwickeltes System der künstlichen Intelligenz und bildet im Verlauf der Weltraummission aufgrund für ihn widersprüchlicher Befehle eine Art Psychose aus, wie sie auch bei Menschen zu finden sein kann. In diesem Zusammenhang dezimiert er durch zielgerichtetes Handeln systematisch die gesamte Besatzung um seine Fehler zu vertuschen und das Missionsziel dabei nicht zu gefährden. Nur ein Mann (Dave Bowman) kann durch trickreiches Handeln sein eigenes Überleben sichern.

Ich kann mir nun durchaus sehr gut vorstellen, dass – insbesondere hinsichtlich des Deep Learnings – die Fiktion, dass eine Maschine völlig selbstbestimmt handelt, durchaus Realtität werden kann. Aber auch, wenn dies in mancher Hinsicht vielleicht ein worst Case Szenarios sein kann, gibt es auch genug andere Gründe ein KI-System nicht völlig sich selbst zu überlassen – denken wir nur an die IT-Sicherheit.

Fazit

Halten wir also fest:

  • Es gibt hinsichtlich des Einsatzes künstlicher Intelligenz künftig eine Menge zu beachten – sowohl für Hersteller als auch Anwender und nicht zuletzt auch für uns technische Redakteure.
  • Die wesentlichen Schlagworte in Zusammenhang mit der KI sind Deep Learning und machine Learning. Während Deep-Learning-Modelle quasi selbst lernen können, sind Systeme des machine learnings hinsichtlich der Datenspeisung und der Bewertungsalgorithmen auf menschliches Zutun angewiesen
  • Das Deep Learning ist ein Teilbereich des machine learnings
  • Die europäische Kommission legte im April 2021 einen Vorschlag über die „Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ vor – die KI-Verordnung.
  • Die KI-Verordnung solch sicherstellen, das
    • die auf dem Markt der Europäischen Union in Verkehr gebrachten und verwendeten KI-Systeme sicher sind und die bestehenden Grundrechte und Werte der Union wahren.
    • Rechtssicherheit hinsichtlich der Förderung von Investitionen in die KI herrscht
    • das geltendes Recht zur Wahrung von Grundrechten und Sicherheitsanforderungen an KI-Systeme wirksam gestärkt wird
    • die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauens-würdige KI-Anwendungen erleichtert und eine Marktfragmentierung verhindert wird

Noch ein wichtiger Nachsatz:

Bei dem in diesem Podcast zitierten Vorschlag der EU-Kommission handelt es sich bislang um einen Entwurf und nicht um ein gesetzlich verbindliches Dokument. Insofern lassen sich hieraus bislang leider auch keine verbindlichen Informationen entnehmen.

Unser Wissen für Sie als PODCAST - Holen Sie sich die neuesten Episoden auf Ihr Smartphone

An den Anfang scrollen