copy the linklink copied!

1. Technische Grundlagen

Abstract

Dieses Kapitel beschäftigt sich mit den technischen Grundlagen künstlicher Intelligenz (KI). Diese haben sich tiefgreifend verändert, seit Alan Turing 1950 erstmals die Frage stellte, ob Maschinen denken können. Seit 2011 wurden insbesondere beim sogenannten maschinellen Lernen (ML) bahnbrechende Fortschritte erzielt. ML ist ein auf einem statistischen Ansatz beruhender Teilbereich der KI, bei dem Maschinen aus historischen Daten lernen, um in neuen Situationen Vorhersagen zu machen. Die aktuelle KI-Welle verdankt sich ausgereiften Techniken des maschinellen Lernens, großen Datensätzen und immer größeren Rechenkapazitäten. Das Kapitel enthält eine detaillierte Beschreibung von KI-Systemen, d. h. Systemen, die zur Umgebungsbeeinflussung Vorhersagen machen, Empfehlungen abgeben oder Entscheidungen treffen. Dabei wird auch der typische Lebenszyklus von KI-Systemen skizziert, der sich in verschiedene Phasen gliedert: 1. Design, Daten und Modelle (was Planung und Design, Datensammlung und -verarbeitung sowie Modellierung und Interpretation umfasst), 2. Verifizierung und Validierung, 3. Einführung sowie 4. Betrieb und Monitoring. Abschließend wird eine Klassifizierung der KI-Forschungsbereiche vorgeschlagen, die politischen Entscheidungsträgern Orientierungshilfen bieten soll.

    
copy the linklink copied!

Eine kurze Geschichte der künstlichen Intelligenz

Im Jahr 1950 veröffentlichte der britische Mathematiker Alan Turing einen Artikel zum Thema Rechenmaschinen und Intelligenz (Turing, 1950[1]), in dem er der Frage nachging, ob Maschinen denken können. Zur Beantwortung dieser Frage entwickelte er ein einfaches Testverfahren: Kann ein Computer ein Gespräch führen und Fragen so beantworten, dass sein menschliches Gegenüber den Eindruck gewinnt, er hätte es mit einem anderen Menschen zu tun?1 Dieser Turing-Test wird auch heute noch verwendet. Ebenfalls 1950 schlug Claude Shannon vor, eine Maschine zu entwickeln, der man das Schachspielen beibringen könne (Shannon, 1950[2]). Trainiert werden könne eine solche Maschine mit der sogenannten Brute-Force-Methode, die auf der Berechnung aller möglichen Züge beruht, oder durch eine Bewertung einiger weniger strategischer Schachzüge des Gegners (UW, 2006[3]).

Als eigentliche Geburtsstunde der künstlichen Intelligenz (KI) erachten viele die Konferenz „Dartmouth Summer Research Project“, die im Sommer 1956 stattfand. John McCarthy, Alan Newell, Arthur Samuel, Herbert Simon und Marvin Minsky umrissen dort das Konzept der künstlichen Intelligenz. Seither wurden in der KI-Forschung kontinuierlich Fortschritte erzielt. Die Versprechen der KI-Pioniere erwiesen sich jedoch als zu optimistisch. Dies führte in den 1970er Jahren zum sogenannten KI-Winter, in dem die KI-Forschung bedeutende Mittel- und Attraktivitätseinbußen hinnehmen musste.

In den 1990er Jahren wurden dann allerdings große Fortschritte bei der Rechenleistung erzielt. Dies brachte neue Fördermittel und ließ das Interesse an KI wieder aufflammen (UW, 2006[3]). Abbildung 1.1 bietet einen Überblick über die Anfänge der KI.

copy the linklink copied!
Abbildung 1.1. Die Anfänge der KI (1950er Jahre bis 2000)
Abbildung 1.1. Die Anfänge der KI (1950er Jahre bis 2000)

Quelle: Nach Anyoha (2017[4]), “The history of artificial intelligence”, http://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/.

Dank den in den 1990er Jahren bei Rechenleistung und Datenspeicherung erzielten Fortschritten konnten nun komplexe Aufgaben bewältigt werden. Damit endete der KI-Winter. Ein bedeutender Durchbruch gelang Richard Wallace 1995 mit der Entwicklung des Chatbots A.L.I.C.E (Artificial Linguistic Internet Computer Entity), der in der Lage war, einfache Gespräche zu führen. Ebenfalls in die 1990er Jahre fällt die Entwicklung des IBM-Computers Deep Blue, der gegen den Schachweltmeister Garri Kasparow antreten sollte. Dieser auf einem Brute-Force-Ansatz basierende Schachcomputer antizipierte jeweils mindestens 6 Züge und konnte 330 Millionen Stellungen pro Sekunde berechnen (Somers, 2013[5]). 1996 verlor Deep Blue noch gegen Kasparow, die Revanche im folgenden Jahr konnte er jedoch schon für sich entscheiden.

2015 entwickelte die Alphabet-Tochtergesellschaft DeepMind eine Software, die bei dem traditionsreichen Brettspiel Go gegen die besten Spieler der Welt antreten sollte. AlphaGo beruhte auf einem künstlichen neuronalen Netz, das mit tausenden Partien menschlicher Amateur- und Profispieler trainiert worden war. Im Jahr 2016 besiegte AlphaGo den damals weltbesten Go-Spieler Lee Sedol mit 4:1. Anschließend ließen die Entwickler das Programm ausgehend von einem zufälligen Spiel und einigen simplen Regeln nach dem Versuch-Irrtum-Prinzip gegen sich selbst spielen. So entstand ein neues Programm – AlphaGo Zero –, das sich selbst schneller trainierte und das Vorgängerprogramm Alpha Go mit 100:0 besiegte. Allein durch das Spielen gegen sich selbst gelang es AlphaGo Zero binnen vierzig Tagen – ohne menschliche Eingriffe oder historische Daten – sämtliche AlphaGo-Versionen zu schlagen (Silver et al., 2017[6]) (Abbildung 1.2).

copy the linklink copied!
Abbildung 1.2. AlphaGo – durch Selbstlernen in 40 Tagen zum weltbesten Go-Spieler
Abbildung 1.2. AlphaGo – durch Selbstlernen in 40 Tagen zum weltbesten Go-Spieler

Quelle: Nach Silver et al. (2017[6]) „Mastering the game of Go without human knowledge”, http://dx.doi.org/ 10.1038/nature24270.

Aktueller Stand der Technik

Durch Big Data, Cloud Computing, die damit verbundene Rechen- sowie Speicherkapazität und die bahnbrechenden Fortschritte im Bereich des maschinellen Lernens haben sich die Leistung, Verfügbarkeit, Expansion und Wirkung von KI drastisch erhöht.

Dank des stetigen technischen Fortschritts können zudem bessere und günstigere Sensoren entwickelt werden, die zuverlässigere Daten für KI-Systeme liefern. Außerdem stehen immer mehr Daten für KI-Systeme zur Verfügung, da diese Sensoren kleiner und kostengünstiger werden. Dies ermöglicht beträchtliche Fortschritte in vielen zentralen KI-Forschungsbereichen wie:

  • maschinelle Sprachverarbeitung

  • autonome Fahrzeuge und Robotik

  • maschinelles Sehen

  • Sprachenlernen

Einige der interessantesten KI-Entwicklungen sind nicht in der Informatik, sondern in Bereichen wie Gesundheit, Medizin, Biologie und Finanzwirtschaft zu beobachten. Der Übergang zu KI erinnert in mehrfacher Hinsicht an die Einführung der Computer, die anfangs nur in einigen wenigen spezialisierten Unternehmen eingesetzt wurden, in den 1990er Jahren dann aber überall in Wirtschaft und Gesellschaft Einzug hielten. Ähnliches war auch beim Internetzugang zu beobachten: Nutzten zunächst nur einige multinationale Unternehmen das Internet, war dies in den 2000er Jahren in vielen Ländern bald schon für den Großteil der Bevölkerung der Fall. Mit der zunehmenden Verbreitung von KI wird auch der volkswirtschaftliche Bedarf an branchenspezifischer „Zweisprachigkeit“ steigen, d. h. der Bedarf an Personen, die auf einen Fachbereich (z. B. Wirtschaft, Biologie oder Recht) spezialisiert sind, aber auch KI-Techniken wie ML beherrschen. Im Fokus dieses Kapitels stehen nicht etwa mögliche längerfristige Entwicklungen wie eine allgemeine künstliche Intelligenz (AKI), sondern Anwendungen, die bereits genutzt werden oder kurz- bzw. mittelfristig zu erwarten sind (Kasten 1.1).

copy the linklink copied!
Kasten 1.1. Angewandte vs. allgemeine künstliche Intelligenz

Die angewandte bzw. schwache künstliche Intelligenz dient der Bewältigung konkreter Problemlöse- und Analyseaufgaben. Sie ist Stand der Technik. Gegenwärtig sind selbst die fortschrittlichsten KI-Systeme wie Googles AlphaGo dieser Kategorie zuzuordnen. Solche Systeme können Muster erkennen und das dabei gewonnene Wissen bis zu einem gewissen Grad verallgemeinern, indem sie z. B. Ergebnisse der Bilderkennung auf die Spracherkennung übertragen. Der menschliche Verstand ist jedoch wesentlich vielseitiger.

Die angewandte KI wird häufig von der (hypothetischen) allgemeinen bzw. starken künstlichen Intelligenz (AKI) abgegrenzt. Starke künstliche Intelligenz würde Maschinen zu Autonomie und allgemeinem intelligentem Handeln befähigen. Maschinen könnten dann so wie Menschen durch diverse kognitive Funktionen gewonnene Erkenntnisse verallgemeinern bzw. abstrahieren. Dies setzt ein starkes assoziatives Gedächtnis und Urteils- sowie Entscheidungsfähigkeit voraus. Allgemeine künstliche Intelligenz könnte vielschichtige Probleme lösen, wahrnehmungs- und erfahrungsbasiert lernen, Konzepte entwickeln, sich selbst und die Welt wahrnehmen, erfinden, kreieren, in komplexen Umgebungen auf Unerwartetes reagieren und antizipieren. Bei der Frage, ob eine allgemeine künstliche Intelligenz möglich ist, gehen die Meinungen indessen stark auseinander. Experten unterstreichen, dass in diesbezüglichen Diskussionen von einem realistischen Zeithorizont ausgegangen werden sollte. Weitgehende Einigkeit besteht darüber, dass die angewandte künstliche Intelligenz große Chancen, Risiken und Herausforderungen mit sich bringen wird. Dass diese Herausforderungen durch die Entwicklung einer allgemeinen künstlichen Intelligenz im Lauf des 21. Jahrhunderts maßgeblich verstärkt würden, ist ebenfalls Konsens.

Quelle: OECD (2017[7]), OECD Digital Economy Outlook 2017, http://dx.doi.org/10.1787/9789264276284-en.

copy the linklink copied!

Was ist KI?

Eine allgemein anerkannte Definition von KI gibt es nicht. Die OECD-Sachverständigengruppe für KI (AI Group of Experts at the OECD – AIGO) beauftragte im November 2018 eine Arbeitsgruppe damit zu beschreiben, was ein KI-System ausmacht. Diese Beschreibung sollte verständlich, technisch korrekt und technologieneutral sein und auf lange Sicht Gültigkeit beanspruchen können. Das Resultat dieser Arbeiten war eine Beschreibung, die hinreichend allgemein ist, um einer Vielzahl der in Wissenschaft, Wirtschaft und Politik gebräuchlichen KI-Definitionen gerecht zu werden. Auf dieser Beschreibung basiert auch die OECD-Empfehlung zu künstlicher Intelligenz (OECD, 2019[8]).

KI-Systeme – Begriffsbestimmung

Der nachstehenden Beschreibung eines KI-Systems liegt das in der Studie Künstliche Intelligenz: Ein moderner Ansatz (Russel, S. und P. Norvig, 2009[9]) erläuterte Begriffsverständnis von KI zugrunde. Es steht im Einklang mit der gängigen Definition von KI als „Studium der Berechnungen, die Wahrnehmung, Schlussfolgerung und Handeln ermöglichen“ (Winston, 1992[10]) bzw. mit ähnlich allgemeinen Definitionen (Gringsjord, S. und N. Govindarajulu, 2018[11]).

In einem ersten Schritt soll hier der KI-Begriff anhand der Grundstruktur eines klassischen KI-Systems (bzw. „intelligenten Agenten“) abgesteckt werden (Abbildung 1.3). Ein KI-System besteht aus drei Hauptelementen, aus Sensoren, einer operativen Logik und Aktoren. Die Sensoren sammeln Rohdaten über die Umgebung und die Aktoren beeinflussen den Zustand der Umgebung. Die operative Logik ist das wichtigste Element eines KI-Systems. Sie liefert für bestimmte Ziele ausgehend vom Daten-Input der Sensoren Output für die Aktoren. Dies können Empfehlungen, Vorhersagen oder Entscheidungen zur Beeinflussung der Umgebung sein.

copy the linklink copied!
Abbildung 1.3. Grundstruktur eines KI-Systems
Abbildung 1.3. Grundstruktur eines KI-Systems

Quelle: Wie von der Sachverständigengruppe AIGO im Februar 2019 festgelegt und beschlossen.

In der nachstehenden detaillierteren Darstellung sind die wichtigsten politikrelevanten Elemente eines KI-Systems erfasst (Abbildung 1.4). Um verschiedenen Arten von KI-Systemen und Szenarien Rechnung zu tragen, wird in der Abbildung zwischen dem Prozess der Modellierung (z. B. durch ML) und dem Modell an sich differenziert. Der Modellierungsprozess ist zudem vom Prozess der Modellinterpretation zu unterscheiden, bei dem mithilfe des jeweiligen Modells Vorhersagen gemacht, Empfehlungen abgegeben oder Entscheidungen getroffen werden. Auf diese Outputs stützen sich die Aktoren, um die Umgebung zu beeinflussen.

copy the linklink copied!
Abbildung 1.4. Detaillierte Darstellung eines KI-Systems
Abbildung 1.4. Detaillierte Darstellung eines KI-Systems

Quelle: Wie von der Sachverständigengruppe AIGO im Februar 2019 festgelegt und beschlossen.

Umgebung

Die Umgebung eines KI-Systems ist ein Raum, der (mittels Sensoren) beobachtet und durch Handlungen (von Aktoren) beeinflusst werden kann. Bei den Sensoren und Aktoren kann es sich um Maschinen oder um Menschen handeln. Eine Umgebung ist entweder real (z. B. physisch, sozial, mental) und dann in der Regel nur teilweise beobachtbar oder virtuell (z. B. Brettspiele) und dann für gewöhnlich vollständig beobachtbar.

KI-System

Ein KI-System ist ein maschinenbasiertes System, das für bestimmte von Menschen definierte Ziele Vorhersagen machen, Empfehlungen abgeben oder Entscheidungen treffen kann, um eine reale oder virtuelle Umgebung zu beeinflussen. Dabei bilden maschinelle und/oder von Menschen vorgegebene Inputs die Grundlage für 1. die Erfassung realer und/oder virtueller Umgebungen, 2. die automatische (z. B. durch ML) oder manuelle Erstellung von Modellen auf Basis dieser Beobachtungen mithilfe von Analysen und 3. die Ermittlung von Informations- oder Handlungsoptionen mittels Modellinferenz. KI-Systeme können mit einem unterschiedlichen Grad an Autonomie ausgestattet sein.

Modell, Modellierung und Interpretation

Kernstück eines KI-Systems ist das KI-Modell, das die Struktur und/oder Dynamik der gesamten oder eines Teils der Umgebung des Systems abbildet. Es basiert auf Expertenwissen und/oder Daten, die von Menschen und/oder automatisierten Instrumenten (z. B. ML-Algorithmen) bereitgestellt werden. Bei der Modellierung werden außerdem bestimmte Ziele (z. B. Outputvariablen) und Parameter (z. B. Genauigkeit, Trainingsressourcen, Repräsentativität des Datensatzes) berücksichtigt. Als Modellinferenz bezeichnet man das Verfahren, mit dem Menschen und/oder automatisierte Instrumente aus einem Modell Ergebnisse ableiten. Dabei kann es sich um Empfehlungen, Vorhersagen oder Entscheidungen handeln. Die Ausführung orientiert sich ebenfalls an Zielen und Parametern. Manche Modelle (z. B. deterministische) liefern eine einzige Empfehlung, andere (z. B. probabilistische) bieten mehrere Empfehlungen an. Diese entsprechen dann unterschiedlichen Niveaus bestimmter Parameter wie Zuverlässigkeit, Robustheit oder Risiko. In einigen Fällen lässt sich beim Interpretationsprozess klären, warum bestimmte Empfehlungen gemacht wurden. In anderen Fällen ist eine Erklärung so gut wie unmöglich.

Beispiele für KI-Systeme

Kredit-Scoring-System

Ein Kredit-Scoring-System ist ein maschinenbasiertes System, das die Umgebung beeinflusst (dahingehend, ob jemandem ein Kredit gewährt wird). Es gibt Empfehlungen (Kredit-Scores) im Hinblick auf bestimmte Ziele (Kreditwürdigkeit) ab. Dazu stützt sich das System sowohl auf maschinelle Inputs (historische Daten zu Personen bzw. deren Kreditrückzahlungen) als auch auf von Menschen vorgegebene (Regeln). Ausgehend von diesen Inputs erfasst das System reale Umgebungen (ob Personen gegenwärtig ihre Kredite zurückzahlen). Auf Basis dieser Beobachtungen werden dann automatisch Modelle erstellt. Ein Kredit-Scoring-Algorithmus könnte z. B. auf einem statistischen Modell beruhen. Mittels Modellinferenz (Kredit-Scoring-Algorithmus) wird schließlich eine Empfehlung (Kredit-Score) im Hinblick auf die Handlungsoptionen (Kreditgewährung oder -ablehnung) abgegeben.

Assistent für Menschen mit Sehbehinderung

Anhand eines Assistenten für Menschen mit Sehbehinderung lässt sich ebenfalls veranschaulichen, wie maschinenbasierte Systeme die Umgebung beeinflussen. Ein solcher Assistent liefert Empfehlungen (z. B. wie einem Hindernis ausgewichen oder die Straße überquert werden kann) im Hinblick auf bestimmte Ziele (Bewegung von einem Ort zu einem anderen). Dies geschieht in drei Schritten, bei denen maschinelle und/oder von Menschen generierte Inputs (große Bilddatenbanken mit getaggten Objekten, Wörtern und sogar Gesichtern) genutzt werden: Zunächst werden Bilder der Umgebung erfasst (eine Kamera fotografiert, was sich vor der betreffenden Person befindet, und schickt das Bild an eine Anwendung). Auf Basis dieser Bilder werden automatisch Modelle erstellt (Objekterkennungsalgorithmen, die Verkehrsampeln, Fahrzeuge oder Hindernisse auf Gehwegen erkennen können). Mittels Modellinferenz werden dann Empfehlungen zu Handlungsoptionen formuliert (Audiobeschreibung der in der Umgebung registrierten Objekte). Der Assistent beeinflusst die Umgebung also, indem er seinem Nutzer Informationsgrundlagen für Entscheidungen über sein Verhalten liefert.

AlphaGo Zero

AlphaGo Zero ist ein KI-System, das das Brettspiel Go besser beherrscht als professionelle Go-Spieler. Ein Brettspiel ist eine virtuelle und vollständig beobachtbare Umgebung. Die Zahl möglicher Spielpositionen ist durch die Ziele und Regeln des Spiels begrenzt. Das System basiert sowohl auf von Menschen vorgegebenen Inputs (Go-Regeln) als auch auf maschinellen (Selbsttraining durch wiederholtes Spielen gegen sich selbst, ausgehend von einem zufälligen Spiel). Auf Basis der beim Spielen gewonnenen Daten wird ein (stochastisches) Modell von Handlungen (Spielzügen) erstellt und mittels Reinforcement- Learning bzw. bestärkendem Lernen trainiert. Auf dieses Modell stützt sich das System dann, um je nach Spielstand die passenden Züge vorzuschlagen.

Autonome Fahrsysteme

Auch ein autonomes Fahrsystem ist ein maschinenbasiertes System, das die Umgebung beeinflussen kann (dahingehend, ob ein Fahrzeug beschleunigt, bremst oder abbiegt). Es macht Vorhersagen (darüber, ob ein Objekt oder Schild ein Hindernis darstellt oder Informationen liefert) und/oder trifft Entscheidungen (beschleunigen, bremsen usw.) im Hinblick auf bestimmte Ziele (in möglichst kurzer Zeit sicher von A nach B gelangen). Dabei stützt sich das System sowohl auf maschinelle Inputs (historische Fahrdaten) als auch auf menschliche (Verkehrsregeln). Auf Basis dieser Inputs wird ein Modell des Fahrzeugs und seiner Umgebung erstellt. Dies ermöglicht dann 1. die Erfassung realer Umgebungen (mithilfe von Sensoren wie Kameras oder Sonargeräten), 2. die automatische Erstellung von Modellen (einschließlich Objekterkennung, Ermittlung von Geschwindigkeit und Bewegungsbahn sowie standortbezogener Daten) auf Basis dieser Beobachtungen sowie 3. Modellinferenz. Der Selbstfahr-Algorithmus kann z. B. aus zahlreichen Simulationen kurzfristiger Zukunftsszenarien für Fahrzeug und Umgebung bestehen. Dadurch kann das System Handlungsoptionen empfehlen (halten oder weiterfahren).

copy the linklink copied!

Lebenszyklus eines KI-Systems

Im November 2018 richtete die AIGO eine Arbeitsgruppe ein, die den Lebenszyklus eines KI-Systems für die OECD-Ratsempfehlung zu künstlicher Intelligenz (OECD, 2019[8]) im Detail beschreiben sollte. Dieses Lebenszyklusmodell stellt keinen neuen Standard für den Lebenszyklus von KI-Systemen2 dar und ist nicht präskriptiv. Es kann jedoch zur Kontextualisierung anderer internationaler Initiativen zur Erarbeitung von KI-Grundsätzen beitragen.3

Der Lebenszyklus eines KI-Systems umfasst mehrere Phasen, die auch für den Lebenszyklus traditioneller Software und Systeme kennzeichnend sind. Beim Lebenszyklus eines KI-Systems werden in der Regel vier Phasen unterschieden: Die Phase „Design, Daten und Modelle“ ist eine kontextabhängige Abfolge der Schritte „Planung und Design“, „Datensammlung und -verarbeitung“ sowie „Modellierung und Interpretation“. Daran schließen sich die Phasen „Verifizierung und Validierung“, „Einführung“ sowie „Betrieb und Monitoring“ an (Abbildung 1.5 Lebenszyklus eines KI-Systems). Diese Phasen sind häufig iterativ und nicht zwangsläufig sequenziell. Die Entscheidung, ein KI-System außer Betrieb zu nehmen, kann zu jedem Zeitpunkt der Betriebs- oder Monitoringphase erfolgen.

Die Lebenszyklusphasen eines KI-Systems lassen sich wie folgt beschreiben:

  1. 1. Design, Daten und Modellierung besteht aus mehreren Schritten, deren Abfolge variieren kann:

    • Planung und Design des KI-Systems: Beschreibung von Konzept, Zielen, Prämissen, Kontext und Anforderungen sowie eventuell Entwicklung eines Prototyps.

    • Datensammlung und -verarbeitung: Sammlung und Bereinigung der Daten, Vollständigkeits- und Qualitätsprüfungen sowie Dokumentation von Metadaten bzw. Merkmalen des Datensatzes. Hierzu zählen Angaben zur Erstellung, Zusammensetzung, beabsichtigten Verwendung und Pflege des Datensatzes.

    • Modellierung und Interpretation: Erstellung oder Auswahl von Modellen bzw. Algorithmen, deren Kalibrierung und/oder Training sowie Interpretation.

  2. 2. Verifizierung und Validierung umfasst die Ausführung und Optimierung der Modelle. Dabei werden Tests durchgeführt, um die Leistungsfähigkeit in verschiedenen Bereichen und unter mehreren Gesichtspunkten zu prüfen.

  3. 3. Einführung im Produktivbetrieb setzt Pilotprojekte, eine Überprüfung der Kompatibilität mit bestehenden Systemen, die Gewährleistung der Einhaltung der geltenden Vorschriften, organisatorische Veränderungen sowie eine Evaluierung des Nutzererlebnisses voraus.

  4. 4. Betrieb und Monitoring eines KI-Systems umfasst den Betrieb des KI-Systems sowie die laufende Evaluierung seiner Empfehlungen und (beabsichtigten und unbeabsichtigten) Effekte unter Berücksichtigung der Ziele sowie ethischer Gesichtspunkte. In dieser Phase sollen Probleme erkannt werden, zu deren Behebung dann Anpassungen in früheren Phasen vorgenommen werden können; unter Umständen kann es nötig sein, das System aus dem Produktivbetrieb zu nehmen.

copy the linklink copied!
Abbildung 1.5. Lebenszyklus eines KI-Systems
Abbildung 1.5. Lebenszyklus eines KI-Systems

Quelle: Wie von der Sachverständigengruppe AIGO im Februar 2019 festgelegt und beschlossen.

Die zentrale Bedeutung von Daten bzw. von Modellen, für deren Training und Evaluierung Daten erforderlich sind, unterscheidet den Lebenszyklus vieler KI-Systeme von dem traditioneller Systeme. Einige ML-basierte KI-Systeme können zudem Iterationen durchlaufen und sich im Lauf der Zeit weiterentwickeln.

copy the linklink copied!

KI-Forschung

Dieser Abschnitt beschäftigt sich mit Entwicklungen in der KI-Forschung an Hochschulen und im privaten Sektor, die die Einführung von KI ermöglichen. KI ist ein aktives Forschungsgebiet der Informatik, insbesondere der Teilbereich des maschinellen Lernens. KI-Techniken werden in zahlreichen wissenschaftlichen Disziplinen für eine Vielzahl von Anwendungen genutzt.

Ein allgemein anerkanntes Klassifikationssystem für KI-Forschungsbereiche, das z. B. mit jenem der 20 großen wirtschaftswissenschaftlichen Forschungsbereiche des Journal of Economic Literature vergleichbar wäre, gibt es bislang nicht. In diesem Abschnitt wird eine solche Klassifizierung vorgeschlagen. Sie soll Politikverantwortlichen helfen, einige der jüngsten KI-Trends zu verstehen, und Fragen aufzeigen, mit denen sich die Politik auseinandersetzen muss.

In der Forschung wurde von Anfang an zwischen symbolischer und statistischer KI unterschieden. Die symbolische KI basiert auf logischen Repräsentationen, aus denen anhand eines vorgegebenen Regelsatzes Schlussfolgerungen abgeleitet werden. Dazu müssen detaillierte und nachvollziehbare Entscheidungsstrukturen nachgebildet werden, um der Komplexität der Realität gerecht zu werden und Maschinen zu befähigen, Entscheidungen zu treffen, die denen von Menschen ähneln. Symbolische KI wird nach wie vor häufig eingesetzt, z. B. für Optimierungs- und Planungsinstrumente. In jüngerer Zeit findet die statistische KI, bei der Maschinen Muster erkennen und daraus ein Modell erstellen, immer stärkere Verbreitung. Einige Anwendungen beruhen auf Kombinationen symbolischer und statistischer Ansätze. Bei Algorithmen für die maschinelle Sprachverarbeitung (NLP-Algorithmen) z. B. werden statistische Ansätze (die sich auf große Datenmengen stützen) häufig mit symbolischen (die beispielsweise Grammatikregeln berücksichtigen) kombiniert. Kombinierte Modelle, die sowohl auf Daten als auch auf menschlicher Expertise beruhen, gelten als vielversprechende Entwicklung, mit der die Unzulänglichkeiten beider Ansätze überwunden werden können.

KI-Systeme basieren zunehmend auf maschinellem Lernen (ML). Dieser Begriff steht für eine Reihe von Techniken, bei denen Maschinen ohne explizite Programmierung anhand von Mustern und Inferenzen selbstständig lernen. Viele ML-Ansätze beruhen darauf, dass Maschinen anhand einer Vielzahl von Beispielen darauf trainiert werden, ein bestimmtes Ergebnis zu erzielen. Bei anderen Ansätzen werden Regeln vorgegeben und die Maschine lernt durch Versuch und Irrtum. ML wird im Allgemeinen bei der Modellierung oder Modellanpassung eingesetzt, kann aber auch bei der Interpretation der Ergebnisse eines Modells zur Anwendung kommen (Abbildung 1.6). Viele Techniken des maschinellen Lernens werden bereits seit Langem von Ökonomen, Forschern und Technologen genutzt. Dies gilt etwa für die lineare und logistische Regression, Entscheidungsbäume, die Hauptkomponentenanalyse oder tiefe neuronale Netze.

copy the linklink copied!
Abbildung 1.6. KI und ML
Abbildung 1.6. KI und ML

Quelle: Zur Verfügung gestellt von der Internet Policy Research Initiative (IPRI) des Massachusetts Institute of Technology (MIT).

Wenn in den Wirtschaftswissenschaften mit Regressionsmodellen auf Basis von Inputdaten Prognosen erstellt werden, können Forscher die Koeffizienten (Gewichte) der Inputvariablen interpretieren. Dies geschieht z. B. häufig zur Untersuchung von Politikfragen. Beim ML sind die Modelle dagegen oft nicht nachvollziehbar. Hinzu kommt, dass bei ML-Problemstellungen häufig mit wesentlich mehr Variablen gearbeitet wird, als dies in den Wirtschaftswissenschaften gemeinhin der Fall ist. In der Regel sind es tausende Variablen (sogenannte „Merkmale“) oder mehr. Größere Datensätze können zwischen Zehntausenden und Hunderten Millionen Beobachtungen umfassen. Bei dieser Größenordnung greifen Forscher zur Erstellung von Prognosen auf komplexere, in geringerem Maße nachvollziehbare Techniken wie neuronale Netze zurück. Ein zentraler Forschungsbereich des ML befasst sich daher auch mit der Frage, wie selbst bei derart umfassenden Modellen das in den Wirtschaftswissenschaften übliche Maß an Erklärbarkeit erreicht werden kann (vgl. Cluster 4 unten).

Grundlage für die Vielzahl neuer ML-Anwendungen ist die Technologie der neuronalen Netze – ein komplexes statistisches Modellierungsverfahren. Die Voraussetzungen dafür wurden durch die zunehmende Rechenleistung und die Verfügbarkeit riesiger Datensätze (sogenannter Big Data) geschaffen. In neuronalen Netzen werden Tausende bzw. Millionen einfacher Transformationen immer wieder verknüpft, so dass ein umfangreicheres statistisches Modell entsteht, das komplexe Zusammenhänge zwischen In- und Outputdaten erfassen kann. Anders ausgedrückt: Neuronale Netze modifizieren ihren eigenen Code, um Beziehungen zwischen Input- und Outputdaten zu ermitteln und die Ergebnisse zu optimieren. Der Begriff Deep Learning bzw. tiefes Lernen bezieht sich auf besonders große neuronale Netze. Ein Schwellenwert, ab dem ein neuronales Netz als „tief“ gilt, wurde allerdings nicht festgelegt.

Diese Entwicklungstendenzen in der KI-Forschung gehen mit stetigen Fortschritten bei der Rechenkapazität, der Datenverfügbarkeit und dem Design neuronaler Netze einher. Dies lässt darauf schließen, dass dem statistischen Ansatz in der KI-Forschung auf kurze Sicht weiterhin eine zentrale Bedeutung zukommen wird. Die Politikverantwortlichen sollten sich auf die KI-Entwicklungen konzentrieren, die in den kommenden Jahren voraussichtlich die größten Auswirkungen haben und die größten Politikherausforderungen mit sich bringen werden. Zu diesen Herausforderungen zählt u. a. die Verbesserung der Erklärbarkeit und Nachvollziehbarkeit der Entscheidungen von KI-Systemen sowie der Transparenz der Entscheidungsprozesse. Zu bedenken gilt auch, dass die meisten dynamischen Ansätze im Bereich KI – statistische KI und insbesondere neuronale Netze – nicht für alle Arten von Problemstellungen geeignet sind. Andere KI-Ansätze sowie Kombinationen symbolischer und statistischer Methoden werden also weiterhin eine wichtige Rolle spielen.

Eine allgemein anerkannte Klassifizierung der KI-Forschungsbereiche oder des Unterbereichs ML gibt es bislang nicht. Die im Folgenden vorgeschlagene Klassifizierung umfasst 25 KI-Forschungsbereiche. Diese Bereiche wurden in 4 Haupt- und 9 Unterkategorien gegliedert, deren Fokus in erster Linie auf ML liegt. In den Wirtschaftswissenschaften spezialisieren sich Wissenschaftler meist auf einen Forschungsbereich. In der KI-Forschung dagegen arbeitet man zur Klärung von Forschungsfragen in der Regel in mehreren Clustern gleichzeitig.

Cluster 1: ML-Anwendungen

Bei der ersten Hauptkategorie geht es um die Anwendung von ML-Methoden zur Bewältigung verschiedener konkreter Herausforderungen in Wirtschaft und Gesellschaft. Anwendungen maschinellen Lernens gewinnen zunehmend an Bedeutung, ähnlich wie einst das Internet, das zunächst einige Branchen und schließlich die gesamte Wirtschaft grundlegend veränderte. In Kapitel 3 werden Beispiele solcher KI-Anwendungen im OECD-Raum beschrieben. Die bedeutendsten Forschungsbereiche, die sich mit der Entwicklung praktischer Anwendungen befassen, sind in Tabelle 1.1 aufgelistet.

copy the linklink copied!
Tabelle 1.1. Cluster 1: ML-Anwendungen

ML-Anwendungen

Nutzung von ML

Maschinelle Sprachverarbeitung

Maschinelles Sehen

Roboternavigation

Sprachenlernen

Kontextualisierung von ML

Algorithmische Spieltheorie und Computational Social Choice

Kollaborative Systeme

Quelle: Bereitgestellt von der Internet Policy Research Initiative (IPRI) des MIT.

Zu den wichtigsten Forschungsbereichen, in denen ML angewandt wird, zählen die maschinelle Sprachverarbeitung, das maschinelle Sehen und die Roboternavigation – drei vielfältige und wachsende Forschungsfelder. Die zu bewältigenden Forschungsherausforderungen können einen oder mehrere Bereiche betreffen. Bei Anwendungen für das Brustkrebs-Screening etwa stützen sich Forscher in den Vereinigten Staaten sowohl auf eine maschinelle Sprachverarbeitung der Freitext-Kommentare und pathologischen Befunde als auch auf maschinelles Sehen (Computervision) (Yala et al., 2017[12]).

In zwei Forschungsbereichen dieses Clusters liegt der Fokus auf der Kontextualisierung von ML: Die algorithmische Spieltheorie ist im Schnittbereich von Wirtschaftswissenschaft, Spieltheorie und Informatik angesiedelt. Sie befasst sich mit der Analyse und Optimierung dynamischer Spiele mithilfe von Algorithmen. Der Bereich Kollaborative Systeme zielt auf die Bewältigung umfassender Herausforderungen ab. Dabei werden mehrere ML-Systeme kombiniert, um Lösungen für die verschiedenen Aspekte eines komplexen Problems zu liefern.

Cluster 1: Politikrelevanz

KI-Anwendungen werfen mehrere politische Grundsatzfragen auf, etwa im Hinblick auf die Zukunft der Arbeit, mögliche gesellschaftliche Auswirkungen von KI sowie Kompetenzangebot und -entwicklung. Zudem muss geklärt werden, in welchen Situationen KI-Anwendungen in sensiblen Bereichen angemessen sind und in welchen nicht. Weitere wichtige Politikfragen ergeben sich im Zusammenhang mit den Auswirkungen von KI auf Wirtschaftsakteure und Wirtschaftsdynamik, staatlichen Open-Data-Strategien, Vorschriften zur Roboternavigation sowie Datenschutzbestimmungen.

Cluster 2: ML-Techniken

Im Fokus der zweiten Hauptkategorie stehen die Techniken und Paradigmen des ML. Hier geht es, ähnlich wie im Forschungszweig „Quantitative Methoden“ der Sozialwissenschaften, um die Entwicklung der technischen Instrumente und der Ansätze, auf denen die ML-Anwendungen beruhen (Tabelle 1.2).

In dieser Kategorie steht vor allem die Technik der neuronalen Netze (mit dem Teilbereich „Deep Learning“) im Vordergrund. Auf ihr basiert heute ein Großteil des ML. Außer um die Techniken geht es in diesem Cluster auch um die Paradigmen, die dem maschinellen Lernen zugrunde liegen. Hierzu zählt z. B. das Reinforcement-Learning bzw. bestärkende Lernen, bei dem sich das Training des Systems am menschlichen Lernen durch Versuch und Irrtum orientiert. Die Algorithmen erhalten dabei keine expliziten Aufgabenstellungen, sondern lernen, indem sie in rascher Abfolge verschiedene Optionen erproben. Dabei passen sie ihr Verhalten an, je nachdem, ob die vorherigen Schritte zu „Belohnung“ oder „Bestrafung“ führten. Daher wurde diese Lerntechnik auch als „unablässiges Experimentieren“ bezeichnet (Knight, 2017[13]).

copy the linklink copied!
Tabelle 1.2. Cluster 2: ML-Techniken

ML-Techniken

Techniken

Deep Learning

Simulationsbasiertes Lernen

Crowdsourcing und Human Computation

Evolutionäre Algorithmen

Techniken ohne neuronale Netze

Paradigmen

Überwachtes Lernen

Bestärkendes Lernen

Generative Modelle/GANs

Quelle: Bereitgestellt von der Internet Policy Research Initiative (IPRI) des MIT.

Mit generativen Modellen und insbesondere generativen gegnerischen Netzen (generative adversarial networks – GAN) wird ein System darauf trainiert, neue Daten zu generieren, die einem bestehenden Datensatz entsprechen. Dies ist ein besonders spannender Forschungsbereich der KI. Der Ansatz besteht darin, zwei oder mehr unüberwachte neuronale Netze in einem Nullsummenspiel gegeneinander antreten zu lassen. Unter spieltheoretischen Gesichtspunkten betrachtet, beruhen diese Systeme bzw. ihr Lernverhalten auf einer Reihe rasch wiederholter Spiele. Indem die neuronalen Netze mit hoher Rechenleistung gegeneinander arbeiten, kann das System erfolgreiche Strategien lernen. Dies gilt insbesondere für strukturierte Umgebungen mit klaren Regeln, wie z. B. das Brettspiel Go und AlphaGo Zero.

Cluster 2: Politikrelevanz

Bei der Entwicklung und Einführung von ML-Techniken stellen sich mehrere Fragen, die für die Politikgestaltung relevant sind. Dabei geht es u. a. um die Förderung besserer Trainingsdatensätze, die Finanzierung von Hochschul- und Grundlagenforschung, die Förderung der „Zweisprachigkeit“ von Arbeitskräften, damit diese neben Fach- auch über KI-Kompetenzen verfügen, sowie die Informatikausbildung. In Kanada z. B. machte die staatliche Forschungsförderung bahnbrechende Fortschritte möglich, durch die die Voraussetzungen für den außerordentlichen Erfolg moderner neuronaler Netze geschaffen wurden (Allen, 2015[14]).

Cluster 3: ML-Verbesserung/-Optimierung

Der Fokus der dritten Hauptkategorie liegt auf Strategien zur Verbesserung und Optimierung von ML-Instrumenten. Hier lassen sich je nach Zeithorizont drei Bereiche unterscheiden (kurz-, mittel- und langfristige Forschung) (Tabelle 1.3). Das Hauptaugenmerk der kurzfristigen Forschung gilt der Beschleunigung von Deep Learning. Erreicht werden soll dies durch eine bessere Datensammlung oder durch die Nutzung verteilter Rechnersysteme zum Training der Algorithmen.

copy the linklink copied!
Tabelle 1.3. Cluster 3: ML-Verbesserung/-Optimierung

ML-Verbesserung

Kurzfristige Forschung

Schnelleres Deep Learning

Bessere Datensammlung

Verteilte Trainingsalgorithmen

Mittelfristige Forschung

ML auf Geräten mit geringer Rechenkapazität

Lernen lernen/Metalernen

KI-Entwicklertools

Langfristige Forschung

Verständnis neuronaler Netze

One-Shot-Lernen

Quelle: Bereitgestellt von der Internet Policy Research Initiative (IPRI) des MIT.

copy the linklink copied!
Kasten 1.2. Teachable Machine

Das Google-Experiment Teachable Machine ermöglicht es Nutzern, eine Maschine mit der Kamera ihres Smartphones oder Computers darauf zu trainieren, bestimmte Szenarien zu erkennen. Um die lernfähige Maschine zu trainieren, macht der Nutzer mehrere Aufnahmen von drei unterschiedlichen Szenarien, z. B. von unterschiedlichen Gesichtsausdrücken. Die Maschine analysiert die Fotos dieses Trainingsdatensatzes und kann sie somit nutzen, um die verschiedenen Szenarien zu erkennen. Sie produziert dann z. B. ein bestimmtes Geräusch, wenn die Person in die Kamera lächelt. Dieses ML-Tool ist insofern einzigartig, als das neuronale Netz ausschließlich über den Browser des Nutzers läuft und keine externen Rechenkapazitäten oder Datenspeicher erforderlich sind (Abb. 1.7).

copy the linklink copied!
Abbildung 1.7. Training einer Maschine mithilfe einer Computerkamera
Abbildung 1.7. Training einer Maschine mithilfe einer Computerkamera

Quelle: https://experiments.withgoogle.com/ai/teachable-machine.

Einen weiteren Forschungsschwerpunkt stellt die Nutzung von ML auf Geräten mit geringer Rechenleistung wie Mobiltelefonen und anderen vernetzten Geräten dar. In diesem Bereich wurden bereits bedeutende Fortschritte erzielt. Durch Projekte wie Googles Teachable Machine stehen inzwischen Open-Source-Tools für ML zur Verfügung, die auch in einem Browser verwendet werden können (Kasten 1.2). Teachable Machine ist lediglich ein Beispiel für die neuen KI-Entwicklertools, die eine breitere Nutzung und höhere Effizienz von ML gewährleisten sollen. Bei der Entwicklung von KI-Chips für mobile Geräte wurden ebenfalls erhebliche Fortschritte erzielt.  

Die längerfristige ML-Forschung beschäftigt sich u. a. mit den Mechanismen, die ausschlaggebend dafür sind, dass neuronale Netze effizient lernen. Neuronale Netze haben sich zwar als leistungsstarke ML-Technik erwiesen, ihre Funktionsweise wird jedoch nach wie vor nicht hinreichend verstanden. Ein besseres Verständnis dieser Prozesse würde die Entwicklung tieferer neuronaler Netze ermöglichen. Die längerfristige Forschung untersucht auch, wie neuronale Netze mit wesentlich kleineren Datensätzen trainiert werden können, was als „One-Shot-Lernen“ bezeichnet wird. Außerdem gibt es Bemühungen, die Effizienz des Trainingsprozesses generell zu erhöhen. Größere Modelle erfordern nämlich u. U. ein mehrwöchiges oder sogar mehrmonatiges Training mit Hunderten Millionen Beispielen.

Cluster 3: Politikrelevanz

Politikrelevant sind hierbei u. a. die Konsequenzen der Nutzung von ML auf Einzelgeräten, also ohne dass Daten in einer Cloud gespeichert werden müssen. Wichtig ist auch die Frage, welche Möglichkeiten sich zur Verringerung des Energieverbrauchs bieten und was zur Entwicklung besserer KI-Tools getan werden muss, von denen ein breiterer Kreis von Nutzern profitieren kann.

Cluster 4: ML-Kontext

Die vierte Hauptkategorie beleuchtet den technischen, rechtlichen und gesellschaftlichen Kontext von ML. ML-Systeme treffen wesentliche Entscheidungen, die zunehmend auf Algorithmen basieren. Daher ist es wichtig zu verstehen, wie algorithmische Voreingenommenheit entstehen kann und verstärkt wird und wie sich die aus ihr resultierenden Verzerrungen in den Ergebnissen beheben lassen. Einer der aktivsten ML-Forschungsbereiche befasst sich mit der Transparenz und der Verantwortlichkeit von KI-Systemen (Tabelle 1.4). Bei statistischen KI-Ansätzen sind die Berechnungen, die den algorithmischen Entscheidungen zugrunde liegen, kaum nachvollziehbar. Diese Entscheidungen können jedoch schwerwiegende Auswirkungen auf das Leben von Menschen haben. Sie können z. B. zur Folge haben, dass ein Kredit verweigert wird oder dass ein Straftäter vorzeitig aus der Haft entlassen wird (Angwin et al., 2016[15]). Ein weiterer Schwerpunkt der kontextbezogenen ML-Forschung ist die Gewährleistung der Sicherheit und Integrität der Systeme. Man weiß noch immer nur wenig darüber, wie neuronale Netze Entscheidungen treffen. Oft können solche Netze mit einfachen Methoden getäuscht werden, z. B. indem ein paar Pixel in einem Bild verändert werden (Ilyas et al., 2018[16]). Ziel der Forschung ist es, Systeme vor dem Eindringen unerwünschter Daten sowie feindlichen Angriffen zu schützen. Ein weiterer Forschungsbereich beschäftigt sich mit der Überprüfung der Integrität von ML-Systemen.

Cluster 4: Politikrelevanz

Die kontextbezogenen Aspekte des ML werfen einige wichtige Fragen für die Politik auf. Diese betreffen u. a. die Voraussetzungen algorithmischer Verantwortlichkeit, die Bekämpfung algorithmischer Voreingenommenheit, die gesellschaftlichen Auswirkungen von ML-Systemen, Produktsicherheit und Haftung sowie Sicherheit insgesamt (OECD, 2019[8]).

copy the linklink copied!
Tabelle 1.4. Cluster 4: ML-Kontext

ML-Kontext

Erklärbarkeit

Transparenz und Verantwortlichkeit

Erklärung von Einzelentscheidungen

Vereinfachung in nachvollziehbare Algorithmen

Fairness/Voreingenommenheit

Debugging-Fähigkeit

Sicherheit und Zuverlässigkeit

Feindliche Angriffe

Überprüfung

Angriffe anderer Art

Quelle: Bereitgestellt von der Internet Policy Research Initiative (IPRI) des MIT.

Literaturverzeichnis

[14] Allen, K. (2015), “How a Toronto professor’s research revolutionized artificial intelligence,”, The Star, 17 April, https://www.thestar.com/news/world/2015/04/17/how-a-toronto-professors-research-revolutionized-artificial-intelligence.html.

[15] Angwin, J. et al. (2016), “Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks”, ProPublica, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

[4] Anyoha, R. (2017), “The history of artificial intelligence”, Harvard University Graduate School of Arts and Sciences blog, 28. August, http://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/.

[11] Gringsjord, S. und N. Govindarajulu (2018), Artificial Intelligence, The Stanford Encyclopedia of Philosophy Archive, https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/.

[16] Ilyas, A. et al. (2018), “Blackbox Adversarial Attacks with Limited Queries and Information” Paper für die 35. International Conference on Machine Learning, Stockholmsmässan, Stockholm, 10.-15. Juli, Vol. 80, S. 2137-2146, http://proceedings.mlr.press/v80/ilyas18a/ilyas18a.pdf.

[13] Knight, W. (2017), “5 big predictions for artificial intelligence in 2017”, MIT Technology Review, 4. Januar, https://www.technologyreview.com/s/603216/5-big-predictions-for-artificial-intelligence-in-2017/.

[8] OECD (2019), Empfehlung des Rats zu künstlicher Intelligenz, OECD, Paris, http://www.oecd.org/berlin/presse/Empfehlung-des-Rats-zu-kuenstlicher-Intelligenz.pdf.

[7] OECD (2017), OECD Digital Economy Outlook 2017, OECD Publishing, Paris, http://dx.doi.org/10.1787/9789264276284-en.

[9] Russel, S. und P. Norvig (2009), Künstliche Intelligenz: Ein moderner Ansatz, 3. Auflage, Pearson, München.

[2] Shannon, C. (1950), “XXII. Programming a computer for playing chess”, The London, Edinburgh and Dublin Philosophical Magazine and Journal of Science, Vol. 41/314, S. 256-275, https://doi.org/10.1080/14786445008521796.

[6] Silver, D. et al. (2017), “Mastering the game of Go without human knowledge”, Nature, Vol. 550/7676, S. 354-359, http://dx.doi.org/10.1038/nature24270.

[5] Somers, J. (2013), “The man who would teach machines to think”, The Atlantic, November, https://www.theatlantic.com/magazine/archive/2013/11/the-man-who-would-teach-machines-to-think/309529/.

[1] Turing, A. (1950), “Computing machinery and intelligence”, in Parsing the Turing Test, Springer, Dordrecht, S. 23-65, http://http:/doi.org/10.1007/978-1-4020-6710-5.

[3] UW (2006), The History of Artificial Intelligence, University of Washington, History of Computing Course (CSEP 590A), https://courses.cs.washington.edu/courses/csep590/06au/projects/history-ai.pdf.

[10] Winston, P. (1992), Artificial Intelligence, Addison-Wesley, Reading, MA, https://courses.csail.mit.edu/6.034f/ai3/rest.pdf.

[12] Yala, A. et al. (2017), “Using machine learning to parse breast pathology reports”, Breast Cancer Research and Treatment, Vol. 161/2, S. 201-211, http://doi.org/10.1007/s10549-016-4035-1.

Anmerkungen

← 1. Dieser Test wurde nicht mündlich, sondern schriftlich durchgeführt.

← 2. Arbeiten zum Systemlebenszyklus wurden u. a. vom National Institute of Standards vorgelegt. In jüngster Zeit haben Normungsorganisationen wie die Internationale Organisation für Normung (ISO) SC 42 begonnen, sich mit dem KI-Lebenszyklus zu befassen.

← 3. Dies gilt z. B. für die globale Initiative zur Ethik autonomer und intelligenter Systeme des Institute for Electrical and Electronics Engineers.

Metadata, Legal and Rights

Dieses Dokument sowie die darin enthaltenen Daten und Karten berühren weder den völkerrechtlichen Status von Territorien noch die Souveränität über Territorien, den Verlauf internationaler Grenzen und Grenzlinien sowie den Namen von Territorien, Städten oder Gebieten. Für Auszüge aus Veröffentlichungen können zusätzliche Haftungsausschlüsse gelten, die der Gesamtpublikation unter dem angegebenen Link zu entnehmen sind.

https://doi.org/10.1787/6b89dea3-de

© OECD 2020

Die Verwendung dieser Arbeiten, sei es in digitaler oder gedruckter Form, unterliegt den Nutzungsbedingungen unter: http://www.oecd.org/termsandconditions.