Wissenschaftsjahr 2019 - Künstliche Intelligenz

MS Wissenschaft 2019

3. Mai 2019 Das schwimmende Science Center

Von Mai bis Oktober reist die MS Wissenschaft als schwimmendes Science Center über Deutschlands Binnengewässer. An Bord hat das Frachtschiff eine interaktive Ausstellung mit Exponaten zum Thema des Wissenschaftsjahrs 2019 „Künstliche Intelligenz“. Fünf der Ausstellungsstücke stammen aus DFG-geförderten Projekten.

Exponat "Der künstlerische Spiegel"

Der Künstlerische Spiegel

Die Fähigkeit von Computern, Bilder zu verstehen und zu erzeugen hat sich in den letzten Jahren rasant verbessert. Auf der MS Wissenschaft demonstriert DeepArt mit dem künstlerischen Spiegel neuste Fortschritte in der computergestützten Bildverarbeitung.

Der Sonderforschungsbereich „Robustheit des Sehens – Prinzipien der Inferenz und neuronale Mechanismen“, der auch die Macher von DeepArt beherbergt, befasst sich mit den Grundlagen des biologischen und maschinellen Sehens. Das menschliche Sehvermögen funktioniert erstaunlich robust: Es ermöglicht uns, selbst aus begrenzten visuellen Informationen verlässliche Schlussfolgerungen über die betrachtete Umgebung zu ziehen. Dafür werden von unseren Nervenzellen komplexe Berechnungen durchgeführt. Künstliche Sehsysteme, beispielsweise in selbst fahrenden Autos, sind zunehmend in der Lage, das menschliche Sehvermögen nachzubilden.

An Bord der MS Wissenschaft können sich Besucherinnen und Besucher filmen lassen und live beobachten, was das auf dieser Forschung basierende Verfahren „Style Transfer“ kann. Dabei analysiert und kombiniert ein Algorithmus Inhalt und Stil von Bildern und verwandelt so das aufgenommene Bild in Echtzeit in ein Gemälde, zum Beispiel im Stil von van Goghs Sternennacht. Die Besucherinnen und Besucher sehen sich wie in einem Spiegel, allerdings als Gemälde. Verfahren wie das hier gezeigte werden vermehrt verwendet, um Fotos zu verändern und zu verbessern, beispielsweise in Apps wie Prisma, Instagram oder Facebook, in Zukunft aber auch vermehrt direkt in Kameras.

Exponat "Autonomes Fahren"

Autonomes Fahren – Wie können wir den Entscheidungen einer künstlichen Intelligenz vertrauen?

Künstliche Intelligenz unterstützt uns im Alltag, indem sie uns bei Entscheidungen hilft oder sie ganz abnimmt. Dies geschieht beispielsweise bei Diagnosen in der Medizin oder beim autonomen Fahren. Auf welcher Grundlage sie diese Entscheidungen trifft, ist jedoch meist nicht nachvollziehbar. Denn der Weg zu ihrer Entscheidung ist tief im neuronalen Netzwerk der KI verborgen, vergleichbar mit dem „Bauchgefühl“ eines Menschen.

Das Institut für Kognitionswissenschaften an der Universität Osnabrück erforscht informationsverarbeitende Prozesse im Gehirn und nutzt dieses Wissen in der Entwicklung von KI-Systemen. Dabei wird ein starkes Augenmerk auf die gesellschaftliche Rolle von KI gelegt, da sie sowohl mit den Menschen interagieren wird (zum Beispiel in Form von autonomem Fahren) als auch Entscheidungen treffen wird, die den Menschen in seinem Alltag unmittelbar betreffen (zum Beispiel Kreditwürdigkeit, Assistenzsysteme in der Medizin).

An Bord der MS Wissenschaft können Besucherinnen und Besucher erleben, wie das ist, wenn sie in einer virtuellen Stadt in einem autonom fahrenden PKW unterwegs sind. Im Anschluss können sie Teil eines Experiments werden, indem sie Fragen zu ihrer „Fahrt“ beantworten.

Exponat "Der Körper denkt mit"

Der Körper denkt mit

Künstliche und natürliche Intelligenz findet nicht nur im Gehirn statt. Sie ist Resultat des Zusammenspiels von Gehirn, Körper und Umgebung. Genau dieses Zusammenspiel steht im Fokus des Forschungsgebiets der „verkörperten Intelligenz“, eines der zentralen Themen der Arbeitsgruppe „Informationstheorie kognitiver Systeme“ am Max-Planck-Institut für Mathematik in den Naturwissenschaften. Ziel der Forschung ist es, einerseits zum besseren Verständnis der kognitiven Fähigkeiten des Menschen, aber auch zur Entwicklung echter KI beizutragen.

Das Exponat auf der MS Wissenschaft verdeutlicht, wie Komplexität im Gehirn durch geschicktes Ausnutzen des Körpers reduziert wird. Damit ein Körper sich im Raum bewegen kann, könnte man ihm viele Formeln über diesen Raum und seine physikalischen Eigenschaften einprogrammieren. Man könnte ihn aber auch selbst „entscheiden“ lassen, wie und wohin er sich bewegt. Anhand von Videosimulationen auf einem interaktiven Touchscreen können die Besucherinnen und Besucher testen, wie viele Neuronen notwendig sind, um einem sechsbeinigen Objekt zu einem flüssigen Laufverhalten zu verhelfen. Über die Zahl werden sie erstaunt sein! An einem 3-D-Modell des Laufobjekts lassen sich zudem die zur Berechnung notwendigen und möglichen Einstellungen an den Gelenken des Objekts im wahrsten Sinne des Wortes „begreifen“.

Exponat "Achtung, Fußgänger von links!"

Vorsicht, Fußgänger von links!

In Echtzeit menschliche Posen zu erkennen, ist für viele KI-Anwendungen eine wichtige Fähigkeit, etwa bei selbst fahrenden Autos: Sie müssen die Körperhaltung von Fußgängern richtig deuten, um sich sicher im Straßenverkehr zu bewegen und Unfälle zu vermeiden. Ein solches System filtert das Bild einer Fußgängerin und extrahiert wichtige Informationen, um das Skelett und die Gelenke zu identifizieren. Diese sind die Drehpunkte, von denen aus sich die aktuelle Bewegung mathematisch beschreiben lässt. Davon ausgehend kann die KI berechnen, ob die Fußgängerin in sicherem Abstand bleibt oder gleich die Straße betreten wird. Die Auswertung von Posen in Echtzeit ist aber nicht nur bei selbst fahrenden Autos von Interesse. So lassen sich beispielsweise mit Gesten Maschinen steuern. In Geschäften wiederum kann ein solches Verfahren dabei helfen, anhand besonderer Körperhaltungen und Bewegungen Ladendiebe auf frischer Tat zu ertappen.

In der Forschungsgruppe „Anticipating Human Behavior“ an der Universität Bonn entwickeln Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Computer Vision, Computer Grafik und Robotik Methoden zur Vorhersage menschlichen Verhaltens.

Auf dem Schiff können Besucherinnen und Besucher testen, wie gut ihre Posen in Echtzeit geschätzt werden. Während sie sich vor einer Videokamera bewegen, wird ihre Pose auf einem Monitor angezeigt. Sie können erleben, welche Bildmerkmale das System aus den Bildern extrahiert und wie sicher sich das System in seiner Vorhersage ist.

Exponat "Wo wurde das Foto aufgenommen?"

Wo wurde das Foto aufgenommen?

Eine automatische Beantwortung dieser Frage ermöglicht eine Reihe interessanter Anwendungen. Mit einer solchen Technik können Bild- und Videoarchive anhand des Aufnahmeorts durchsucht oder Widersprüche zwischen Text- und Bildinformationen in Nachrichtenmeldungen oder Tweets erkannt werden. Ein solches System könnte künftig also dabei helfen, Falschnachrichten zu identifizieren.

Die TIB Hannover und das Forschungszentrum L3S der Leibniz Universität Hannover haben ein maschinelles Lernverfahren entwickelt, das die Position eines Fotos ausschließlich auf Basis seiner Bildinhalte schätzt. Dem Verfahren liegen sogenannte tiefe neuronale Netze zugrunde, die die kognitiven Prozesse des menschlichen Gehirns basierend auf der Verknüpfung einer sehr großen Zahl von Nervenzellen (Neuronen) modellieren. Das neuronale Netz zur Schätzung des Aufnahmeorts wurde mit rund fünf Millionen Beispielfotos von Orten der ganzen Welt trainiert und hat bei Tests bisher hervorragende Ergebnisse erzielt.

An Bord der MS Wissenschaft können die Besucherinnen und Besucher in einem Quiz, in dem es darum geht den Aufnahmeort verschiedener Fotos zu schätzen, gegen das Computersystem antreten. Die Entscheidungsfindung des neuronalen Netzes wird visualisiert, um einen Einblick in die Entscheidungsprozesse des Systems zu geben.

Eine Demo ist auch online zu finden unter:

Zur MS Wissenschaft 2019