So lernt KI

Anmelden
Anmelden
§

© Digitale Lernwelten GmbH auf Basis von Canva

Arrc

So lernt KI

1
§

© Digitale Lernwelten GmbH

Arrc
2
§

© Digitale Lernwelten GmbH

Arrc

Überwachtes Lernen

3
§

© Digitale Lernwelten GmbH auf Basis von Canva

Arrc

Beim überwachten Lernen brauchen wir „gelabelte“ Daten. Das sind Daten, die bereits in Kategorien eingeteilt sind. Zum Beispiel könnten wir Bilder von Autos, Fahrradfahrern und Fußgängern verwenden, die alle beschriftet wurden, um ein System für die Bilderkennung beim autonomen Fahren zu entwickeln. Ein Teil dieser gelabelten Daten wird genutzt, um den Algorithmus zu trainieren und Regeln zu erstellen, die helfen, die Daten den richtigen Kategorien zuzuordnen. Diese Daten werden Trainingsdaten genannt. Mit diesen Trainingsdaten lernt der Algorithmus, Daten selbstständig zu sortieren, basierend auf den gelernten Regeln. Da der Algorithmus beim überwachten Lernen mit den vom Datenersteller gelabelten Daten lernt, sprechen wir vom „überwachten“ Lernen. Die Qualität der erstellten Regeln wird dann mit weiteren markierten Daten, den Testdaten, überprüft. Auf diese Weise entstehen nach und nach Modelle, die Muster erkennen und Vorhersagen treffen können, indem der Algorithmus aus den vorhandenen Daten lernt und die Muster auf neue, ungelabelte Eingaben anwendet.

Gemeinsam mit eurer Lehrkraft werdet ihr nun simulieren, wie ein KI-System durch überwachtes Lernen trainiert wird. Stellt euch vor, ihr seid Tierpfleger in einem Zoo und kümmert euch um verschiedene Affenarten. Eure Aufgabe ist es, zu entscheiden, welche der kleinen Affen aggressiv sind und welche nicht.

4
§

© Digitale Lernwelten GmbH auf Basis von Canva

Arrc

Informationen für Lehrkräfte

Anleitung zur KI-Simulation

Sie finden das Spiel unter https://www.aiunplugged.org/german.pdf, es ist auf den Seiten 4–7 erklärt.

Die Äffchenkärtchen sind unter https://www.aiunplugged.org/activity1.pdf zu finden.

Steht eine Projektionsfläche zur Verfügung, so bietet es sich an, die Präsentation https://view.officeapps.live.com/op/view.aspx?src=https%3A%2F%2Fwww.aiunplugged.org%2Factivity1.pptx&wdOrigin=BROWSELINK statt der ausgedruckten Karten zu verwenden.

Es wird empfohlen, das Spiel mit der ganzen Klasse gleichzeitig zu spielen. Die Schülerinnen und Schüler sollen jeweils eigene Entscheidungsbäume zeichnen und ihre so entstehenden Algorithmen bei der Auswertung der Testdaten an ihren Nachbarn weitergeben.

Falls den Schülerinnen und Schülern keine Entscheidungsbäume bekannt sind, müssen diese entsprechend in der Einführung thematisiert werden.

Reflexion

5

Beantworte die folgenden Fragen, um zu reflektieren, was du gerade gelernt hast.

A

Wie bist du vorgegangen, um zu entscheiden, ob ein Äffchen beißt oder nicht?

B

Warum hat dein Algorithmus (wahrscheinlich) nicht jedes Bild korrekt zuordnen können?

C

Überlege dir Situationen und Anwendungen, in denen ein nicht funktionierender Algorithmus problematisch sein könnte.

D

Worauf sollte bei der Auswahl der Trainingsdaten geachtet werden?

Unüberwachtes Lernen

6
§

© Digitale Lernwelten GmbH auf Basis von Canva

Arrc

Beim unüberwachten Lernen gibt es keine gelabelten Daten. Das funktioniert zu Beispiel so: Dem Algorithmus liegen viele Bilder von Früchten vor, aber ohne Zuordnung zu bestimmten Obstsorten. Der Algorithmus nutzt die Ähnlichkeiten zwischen den Daten, um sie basierend auf gemeinsamen Merkmalen wie Farbe und Form zu gruppieren. Man geht davon aus, dass ähnliche Daten auch ähnliche Merkmale haben.

Unüberwachtes Lernen bedeutet also, dass die Daten nicht im Voraus gelabelt wurden und dem Algorithmus keine Kategorien vorgegeben sind. Zum Beispiel könnten alle gelben, gebogenen Früchte in eine Gruppe und alle grünen, runden Früchte in eine andere Gruppe sortiert werden. Nachdem ähnliche Daten in Gruppen zusammengefasst wurden, müssen noch die Ausreißer gefunden werden - das sind Daten, die nicht in die Gruppen passen. In unserem Fruchtbeispiel könnten das exotische Früchte sein, die sich deutlich von den anderen unterscheiden.

Um das unüberwachte Lernen besser zu verstehen, wollen wir uns nun auf die Suche nach Gold begeben! Stellt euch vor, ihr seid im Amerika zur Zeit des großen Goldrauschs mit drei Grabungsteams. Anhand von Berichten über frühere Goldfunde und einer Karte sollt ihr die besten Grabungsorte ausfindig machen.

7
§

© Digitale Lernwelten GmbH auf Basis von Canva

Arrc

Informationen für Lehrkräfte

Spielmaterialien

Die Spielmaterialien sind auf der Seite https://computingeducation.de/proj-snaip-B/ zu finden. Diese müssen ausgedruckt und vorbereitet werden. Optional ist dort eine Unterrichtsidee vorgestellt, wie vertieft – aufbauend auf dem Goldsuchspiel – auf unbewachtes Lernen eingegangen werden kann.

8

Aufgabe

Du hast du nun sowohl mit überwachtem als auch mit unüberwachtem Lernen beschäftigt. Die folgenden Fragen werden dir helfen, noch einmal die wesentlichen Merkmale der beiden Formen zu formulieren.

9

Vertiefung

für Interessierte

Unüberwachtes maschinelles Lernen wird auch genutzt, um neue Bilder durch KI zu erstellen. Dabei analysiert die KI viele vorhandene Bilder, erkennt Muster und Merkmale und erstellt daraus neue Bilder, die den vorhandenen ähnlich sind. Ein Beispiel dafür sind Generative Adversarial Networks (GANs). Diese bestehen aus zwei Teilen: einem Generator, der Bilder erzeugt, und einem Diskriminator, der versucht zu erkennen, ob ein Bild echt oder von der KI erstellt wurde. Der Generator wird immer besser darin, realistische Bilder zu erzeugen, indem er aus den vorhandenen Bildern lernt, ohne explizit gesagt zu bekommen, wie das Bild aussehen soll.

Glaubst du, dass du immer erkennen kannst, ob digitale Bilder von Menschen oder von einer KI geschaffen wurden? Mach den Test und finde mit diesem Quiz heraus, wie gut du echte Gemälde und Fotos von KI-generierten unterscheiden kannst!

Bestärkendes Lernen

10

Im Gegensatz zu den beiden vorhergehenden Verfahren wird beim bestärkenden Lernen keine vorhandenen Daten verwendet. Stattdessen lernt der Algorithmus durch Ausprobieren und erhält Belohnungen für gute Entscheidungen sowie Bestrafungen für schlechte. Der Algorithmus sammelt eigenständig Informationen, die für sein Ziel relevant sind.

Ein Beispiel: Ein Serviceroboter kann das Verhalten und die Stimmung eines Kunden analysieren und darauf basierend eine Handlung aus seinen vorgegebenen Möglichkeiten wählen. Wenn der Algorithmus eine Entscheidung trifft, die ihn seinem Ziel näher bringt, wird er belohnt. Durch die Reaktionen des Kunden lernt der Serviceroboter, welche Handlungen erfolgreich sind, und passt seine Strategie entsprechend an. Erfolgreiche Handlungen werden verstärkt, nicht erfolgreiche abgeschwächt. Bei positivem Feedback wird der Serviceroboter diese Handlung in ähnlichen Situationen wiederholen. Wenn der Kunde negativ reagiert, wird diese Handlungsalternative mit geringerer Wahrscheinlichkeit erneut eingesetzt.

11
§

© Digitale Lernwelten GmbH auf Basis von Canva

ArrcBYNCSA
12

Aufgabe

Schlag' das Krokodil

Nach so viel Theorie kannst du das Prinzip des bestärkenden Lernens nun einmal spielerisch ausprobieren. Wie lernen wir als Mensch ein Brett- oder Videospiel zu spielen? Vielleicht beobachten wir andere beim Spielen, vielleicht probieren wir aus, wie bestimmte Aktionen oder Spielzüge das Spiel beeinflussen. Je öfter wir gewinnen, desto besser werden wir in einem Spiel. Wir entwickeln Strategien, mit welchen Zügen wir in bestimmten Spielsituationen am erfolgreichsten sind. Auf dieselbe Weise kann auch ein Algorithmus lernen.

Bei „Schlag das Krokodil“ kannst du mitverfolgen, wie der Computer von Spiel zu Spiel besser wird.

Kurzanleitung

Du spielst gegen den Computer und versuchst dabei, so oft wie möglich zu gewinnen. Du wirst sehen, dass der Computer jeweils das aktuelle Spielfeld mit den Zugmöglichkeiten (rechts im Bild) vergleicht. Im Anschluss zieht der Computer zufällig einen der farbigen Punkte, die sich neben der jeweiligen Spielsituation befinden. Die Punktfarbe bestimmt, welcher Zug ausgeführt wird. Wird beispielsweise ein roter Punkt gezogen, wird der Roboter dem roten Pfeil folgend bewegt. Beobachte, was mit den Punkten passiert, wenn der Computer gewonnen oder verloren hat.

Es gelten folgende Regeln:

  • Du spielst die Affen und kannst diese durch Ziehen bewegen.

  • Das Spielfeld besteht aus 3x3 Feldern.

  • Beide Spieler haben je 3 Figuren, die wie die Bauern beim Schach ziehen dürfen: Entweder ein Feld nach vorne oder schräg eine gegnerische Figur schlagen.

Der Gegner ist besiegt, wenn ...

  • ... alle seine Figuren aus dem Spiel geworfen wurden (diagonal wie die Bauern beim Schach),

  • ... er am Zug ist, aber mit allen Figuren für weitere Bewegungen blockiert ist oder

  • ... man mit einer eigenen Figur die Spielfeldseite des Gegners erreicht.

Informationen für Lehrkräfte

Das Spiel zur Illustration bestärkenden Lernens lässt sich gut einleiten, in dem Sie die SuS zunächst fragen, wie sie bei Videospielen lernen, um die verschiedenen Levels zu bestehen. Die SuS erzählen von ihren Lernstrategien, die wahrscheinlich darin bestehen, dass sie Aktionen, die zu Erfolg führen vermehrt ausführen und solche die zu Bestrafungen führen vermeiden. Diese Lernstrategie benutzt der Mensch auch im Alltag: Strafen in der Schule, gute Noten bei einem Test, Strafzettel im Straßenverkehr, Punkteführerschein usw.

Daraufhin erklären Sie, dass auch KI-Systeme auf diese Art und Weise autonom lernen und dies in vielen Videospielen genutzt wird. Auch werden viele KI-Systeme zuerst an Spielen getestet, da diese ein überschaubares Regelwerk besitzen und weniger komplex sind als die Realität. Sehr bekannt wurde KI durch seinen Sieg gegen den Schachweltmeister Kasparov im Jahre 1997 (Deep Blue) und gegen den Weltmeister im Go-Spiel im Jahre 2016 (IBM Watson).

Im Kleinen lässt sich das am Bauernschach bzw. dem Spiel „Schlag das Krokodil“ nachvollziehen. Die Spielregeln stammen vom richtigen Schachspiel: Die Bauernfigur kann geradeaus auf das vor ihr liegende Feld ziehen, wenn dieses frei ist, oder diagonal nach vorne, um einen gegnerischen Bauern zu schlagen. Gewonnen hat die/der SpielerIn, die/der es schafft, die eigene Spielfigur an das andere Ende des Spielfeldes zu führen, oder alle gegnerischen Figuren geschlagen hat oder erreicht, dass der Gegner in der nächsten Runde keinen Spielzug mehr ausführen kann.

Demonstrieren Sie zunächst die Funktionsweise der Website https://www.stefanseegerer.de/schlag-das-krokodil und erklären Sie die Spielregeln. Darüber hinaus ist es wichtig, dass die SuS die Bedeutung der farbigen Punkte verstehen (entsprechen der gleichfarbigen Aktion) und sehen, dass diese Punkte entfernt oder hinzugefügt werden können.

Bevor eine neue Runde gespielt wird, passt der Computer seine Strategie wie folgt an:

  • Computer hat gewonnen: Ein Token in der Farbe des letzten, siegbringenden Spielzugs wird zusätzlich auf das Feld dieses Spielzugs gelegt.

  • Mensch hat gewonnen: Das Token, das den letzten Zug der Computer-Spielerin bzw. des Computer-Spielers bestimmt hat, wird entfernt.

Lassen Sie die SuS nun einige Runden allein spielen. Ziel ist es, so oft wie möglich zu gewinnen, bevor die KI nicht mehr geschlagen werden kann. Dies scheint eine einfache Aufgabe zu sein, aber bald werden die SuS erkennen, dass sie ein gutes Verständnis des Innenlebens benötigen, um über 10 oder sogar über 20 Siege zu erzielen. Achtung, wenn die Seite neu geladen wird, werden auch die Gewinne zurückgesetzt!

Reflexion: Die SuS werden erkennen, dass sie zu Beginn noch oft gewinnen. Nach einigen Runden wird der Computer jedoch immer besser, da durch bestärkendes Lernen nur die Spielzüge übrigbleiben, die zu einem Gewinn führen. Schlussendlich werden die SuS nicht mehr gegen den Computer gewinnen können. Sie sollten erkennen, dass sie gezielt Züge machen müssen, die sie zuvor noch nicht verwendet haben, um die KI in unbekanntes Gebiet zu „zwingen“. Es ist auch gut ersichtlich, dass die Anzahl der möglichen Zustände mit der Anzahl der verfügbaren Aktionen recht schnell zunimmt. Man kann sich leicht vorstellen, dass es auf einem größeren Brett (wie z.B. einem Schachbrett) so viele mögliche Zustände gibt, dass es nicht möglich ist, eine KI von Hand zu trainieren oder sogar generell alle möglichen Zustände einzubeziehen. Wichtig ist auch die Qualität des menschlichen Spielers: Verliert die Maschine nicht, entwickelt sie sich auch nicht weiter. Verliert sie aber, wird jeweils der letzte Zug, der in direkter Folge zum Verlieren geführt hat, eliminiert, d. h. aus der Ergebnisübersicht gestrichen. Dies stellt eine negative Bestärkung (Bestärkung erfolgreicher Handlung findet hier nicht statt) dar, da der Zug in Zukunft mit Sicherheit nicht mehr angewendet wird. Die Maschine lernt auf diese Weise besser zu spielen.

Zur Vertiefung siehe auch https://computingeducation.de/proj-schlag-das-kroko/.

13

Aufgabe

Beschreibe, was du im Spiel beobachtet hast:

  1. Wie sind die Spielrunden verlaufen?

  2. Wie hat der Computer gelernt?

  3. Mit welcher Strategie gelingt es, das Krokodil länger zu besiegen?

14

Nachdem du nun gelernt hast, wie künstliche Intelligenz lernen kann, kannst du im nächsten Modul erfahren, auf diesem Weg alles erreicht werden kann. Zusammen mit Nele und Emma wirst du die Entwicklung von KI betrachten – von ihren Anfängen bis zu den Zukunftsaussichten.