Besser über künstliche Intelligenz kommunizieren

Besser über künstliche Intelligenz kommunizieren

Das Interesse an künstlicher Intelligenz (KI) ist in den letzten Jahren sowohl in den Medien als auch in der Öffentlichkeit sprunghaft gestiegen. Wir befinden uns mitten im “Sommer” der künstlichen Intelligenz. Gleichzeitig ist die Medienberichterstattung über KI sehr unterschiedlich – auf der einen Seite produzieren Boulevard- und Clickbait-Medien sehr ungenaue Darstellungen von KI, die eher Science Fiction als Realität widerspiegeln. Die Resonanz auf die Konstruktion der unwahrscheinlisten moralischen Dilemmatta im Zusammenhang von selbstfahrenden Autos (Fahre ich die Gruppe Omas tot oder das Kind?) offenbaren den hohen Grad von Erregung, wenn es um Themen der künstlichen Intelligenz und Robotik geht.

Auf der anderen Seite gibt es Nachrichtenagenturen, die konsequent gut recherchierte und genaue Darstellungen der KI schreiben. Eine Fetischisierung technischer Artefakte und ihre Hochstilisierung zu Pseudo-Persönlichkeiten ist aufgrund eines techno-animistischen Denkens leider weit verbreitetet und gleichzeitig wenig erkenntnisreich. Aber auch eine verantwortungsvolle Medienberichterstattung kann unbeabsichtigte, subtile Fehleinschätzungen der KI durch die Wahl des Wortlauts, der Bilder oder Analogien verbreiten.

Ein schönes, aber falsches Bild

Unabhängig ob Revolverblatt oder führendes Tech-Magazin: bei vielen Beiträgen zu KI gewinnt man den Eindruck, es handele sich um ein komplett neues Feld. Dabei ist KI im Vergleich zu anderen digitalen Themenfeldern ein altes und nur wenige Ideen sind wirklich neu. Die aktuellen großartigen und stark gehypten Fortschritte im Bereich des Deep Learning haben ihre Wurzeln in der Forschung an neuronalen Netzen, aus den 1980er und 1990er Jahren. Diese Forschung wiederum basierte auf Ideen und Experimenten aus den 1940er Jahren. In vielen Fällen besteht die Weiterentwicklung in der Forschung aus kleinen Variationen und Verbesserungen. Vor allem aber aus  einer immer breiter werdenden Basis an Daten.

Es gibt keine “künstliche Intelligenz” wie es eine “natürliche Intelligenz” gibt. KI ist eine Sammlung von Methoden und Ideen für den Aufbau von Software, die einige der Dinge tun kann, die Menschen mit ihrem Gehirn tun können. Forscher*innen und Entwickler *innen verwenden bestehende und entwickeln neue KI-Methoden, um Software zu entwickeln, die etwas Beeindruckendes leisten kann, wie z.B. Bilder zu klassifizieren, Schach zu spielen oder Kunststile nachzuahmen. Obwohl dies als ein unumstrittener Punkt erscheinen mag, wird dies bei vielen Artikeln zu KI auf verschiedene Weise falsch dargestellt.

Fakten

Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Simulation menschlicher Intelligenz durch Maschinen und Computersysteme beschäftigt. Maschinelles Lernen (Machine Learning) ist ein Teilgebiet der KI, in dem Computer aus Beispielen lernen und Muster erkennen, ohne explizit dafür programmiert zu sein. In der Unterart des Machine Learnings dem Deep Learning werden künstliche neuronale Netze trainiert, um eigenständig komplexe Beziehungen zwischen Informationen herzustellen.

Im Allgemeinen wird zwischen starker und schwacher KI unterschieden. Starke KI bezeichnet eine generelle künstliche Intelligenz (auch Singularität), die in allen Einsatzbereichen ohne weiteren Aufwand anzuwenden ist und generell ein Niveau erreicht, das der menschlichen Intelligenz ähnlich ist. Ein starkes KI-System ist heute weder verfügbar noch absehbar. Schwache KI bezeichnet den Einsatz von KI für spezialisierte Aufgaben und Funktionen. Alle heutigen KI-Systeme beschränken sich auf Anwendungen der schwachen KI.

Besser über künstliche Intelligenz kommunizieren

Autonomie

Wenn über KI ohne wirkliche Autonomie berichtet wird, fällt ein entscheidender und der wichtigste Zusammenhang in den Hintergrund: Der Mensch spielt eine große Rolle, wenn es darum geht sie zum Arbeiten zu bringen. In der Tat geht ein erhebliches Maß an menschlichem Denken und Bemühen voraus, bevor Fortschritte bei neuen anspruchsvollen Anwendungen der KI erzielt werden können. Wenn es zum Beispiel heißt “eine Roboterhand lernte, einen Rubiks alleine zu lösen”, wird der enorme menschliche Aufwand, den ein solches Projekt im Vorhinein erfordert, vernachlässigt.

Ein Großteil der künstlichen Intelligenz ist eigentlich menschlicher Einfallsreichtum. Es gibt einen Grund, warum sich Forscher und Entwickler auf Anwendungen der KI in bestimmten Bereichen wie Robotik, Spiele oder Übersetzung spezialisiert haben: Beim Aufbau eines Systems zur Lösung eines Problems werden gigantische Mengen an menschlichen Wissen über das eigentliche Problem in das System mit aufgenommen.

Menschen neigen dazu Autonomie hineinzuinterpretieren wo keine ist. Die heutigen KI-Systeme besitzen fast keine Autonomie bei ihren Handlungen. Mit “Eine künstliche Intelligenz” wird mit der sprachlichen Implikation von “Eine Intelligenz” und damit wird KI als ein autonomer Agent bezeichnet. Das ist keineswegs, was KI-basierte Anwendungen heute sind, sondern weitaus weniger sexy und catchy: Es sind Softwareanwendungen, die mit Hilfe von KI-Algorithmen entwickelt wurden. Sie unterscheiden sich aber ansonsten nicht von dem Browser, der zum Lesen dieses Artikels benötigt wird – also letztlich eine Software, die Eingaben entgegen nimmt und Ausgaben erzeugt, die von menschlichen Programmierer*innen festgelegt wurden.

Eine Konsequenz der obigen Definition ist, dass es irreführend ist, z.B. “Eine künstliche Intelligenz hat ihre eigene nichtmenschliche Sprache entwickelt” zu sagen. Oder “IBM lehrte seine KI namens Watson, Krankheiten zu diagnostizieren”, da die KI keine einzelne Einheit ist, sondern eine Reihe von Techniken und Ideen. Präziser wäre der Ausdruck “Wissenschaftler entwickeln ein Bilderkennungssystem auf Basis künstlicher Intelligenz auf dem die Diagnose von Krebs automatisiert werden kann”. Statt “die KI kann Bilder erkennen oder Krankheiten diagnostizieren” schreibt man besser “IBM schrieb ein Computerprogramm zur Diagnose von Krankheiten” – der ersten Satz beschreibt KI als Einheit und als einen selbständigen Akteur.

Großartige Inselbegabungen

Die meisten der heutigen Programme, die auf Machine Learning basieren, können so charakterisiert werden, dass sie nur eine Sache tun: die Zuordnung einer Art von Input zu einer anderen Art von Output. Man kann von dem heutigen (und morgigen) Technikstand mit Sicherheit davon ausgehen, dass das gleiche System nicht gleichzeitig Schach spielen und Krebstumore erkennen kann. Tatsächlich kann kein KI-basiertes System mehr als nur ein paar verschiedene Aufgaben erfüllen. Wenn es heißt “die KI eines Unternehmens könne ein Auto navigieren, aber sie könne jetzt auch ein Gedicht schreiben”, wird die Tatsache von zwei zusammenarbeitenden verschiedenen Systeme verschwiegen. Dabei gibt es keine derartige starke KI.

Die heutigen Roboter und KI-Systeme sind unglaublich eng in ihrem Leistungsspektrum. So ist es für viele Menschen nicht offensichtlich, dass ein Programm, das Go spielen kann, nicht auch Schach spielen oder etwas anderes tun kann. Richtig ist demnach die Aussage “ein auf KI-gestütztes Programm kann Menschen bei dem Spiel GO besiegen” – dagegen ist es weniger richtig zu behaupten: “künstliche Intelligenz sei dem Menschen nun auch in allen Spielen weit voraus”.

Eine gute Möglichkeit zu verstehen, welche Teile einer KI-Anwendung automatisch sind und welche auf in das System codierten menschlichen Wissen beruhen, ist die Frage, wie dieses System bei einem etwas anderen Problem funktionieren würde.

Systeme sind komplex und ihre Handlungen sind schwer zu interpretieren. Aber wie bei jeder anderen Technologie auch, setzen wir sie ein, sobald sie funktioniert, auch wenn es bekannte Risiken (z.B. Atomkraft oder Gentechnik) und Unsicherheiten gibt. Oft wird bei dem Begriff “KI” ein unerwartetes Systemverhalten auf eine “bewusste Entscheidung” der “KI” zurückgeführt, anstelle auf ein noch nicht verstandenen Verhaltens eines komplexen technischen Systems. Die KI hat sich nichts dabei gedacht, uns mit dieser oder jenen, “von normalen Menschen nicht zu verstehende” Ausgabe zu konfrontieren.

Besser über künstliche Intelligenz kommunizieren

Anthropomorphismus

Alan Turing entwickelte in den 50er Jahren den nach ihm benannten Turing-Test, um herauszufinden, ob die Intelligenz eines Systems mit der eines Menschen zu vergleichen ist. Was Turing mit dem Test meinte, ist dem Aphorismus von Forrest Gump sehr ähnlich: “Dumm ist der der Dummes tut”. Turing’s Version wäre entsprechend: “intelligent ist, wer Intelligentes sagt”. Mit anderen Worten, eine Entität ist intelligent, wenn sie sich nicht von einer anderen intelligenten Entität durch Beobachtung ihres Verhaltens unterscheiden lässt.

Eine Kritik am Turing-Test als Test für Intelligenz ist, dass er tatsächlich messen kann, ob sich der Computer mehr wie ein Mensch verhält und nicht, dass er intelligent ist. Der Test wurde in der Tat von Computerprogrammen “bestanden”, die ständig das Thema wechseln, viele Rechtschreibfehler machten und sich manchmal auch weigerten zu reagieren.

Die Vorstellung, dass Intelligenz das Gleiche sei wie intelligentes Verhalten, wird von vielen Forschern in Frage gestellt. Das bekannteste Gegenargument ist John Searles Gedankenexperiment des chinesischen Zimmers.

Das chinesische Zimmer

Searle beschreibt ein Experiment, bei dem eine Person, die kein Chinesisch kann, in einem Raum eingesperrt ist. Außerhalb des Raumes ist eine Person, die Notizen, die auf Chinesisch geschrieben wurden, durch einen Briefschlitz in den Raum schieben kann. Die Person im Raum besitzt ein großes Wörterbuch, in dem sie detaillierte Anweisungen zur Beantwortung der von außen erhaltenen Notizen finden kann.

Searle argumentierte: selbst wenn die Person außerhalb des Raumes den Eindruck erweckt, dass sie sich in einem Gespräch mit einer anderen chinesischsprachigen Person befindet, die Person innerhalb des Raumes kein Chinesisch verstehen muss. Ebenso geht sein Argument weiter: auch wenn sich eine Maschine intelligent verhält, z.B. durch das Bestehen des Turing-Tests, muss sie nicht intelligent sein oder einen “Geist” haben , wie es ein Mensch hat.

Haustiere und künstliche Intelligenz

Wenn wir stolz über unsere zu Haustiere sagen: “Oh, Hasso hat uns ausgetrickst, während Betty und Bolle ein Pokerface aufgesetzt haben” – projizieren wir menschliche Konzepte in Zusammenhänge, die in diesen Bereichen zunächst keine Rolle spielen. Selbst wenn wir unserem Hund Hasso ein gewisses Bewusstsein darüber zutrauen, zu verstehen, was richtig und falsch ist (Knochen zernagen: gut – Kissen zerfleddern: böse), können wir nicht ohne Weiteres unsere ethischen oder kognitiven Konzepte auf Hasso und seine beiden Katzenfreunde Betty und Bolle ausweiten.

An einer anderen Stelle unterscheidet sich unsere Vermenschlichung der Tierwelt gegenüber der künstlichen Intelligenz: Während der Erwartungshorizont bei Tieren absehbar, erforscht ist und wenig verspricht, was unsere Existenz gefährden könnte, ist die Entwicklung und damit die tatsächlichen Fähigkeiten von Maschinen unübersichtlich, schwer nachzuvollziehen und scheinbar grenzenlos.

Eines haben die Projekten menschlicher Konzepte auf Bereiche der KI und die Welt der Tiere gemeinsam: es vereinfacht das Verständnis und die Deutung von ihnen. Einem handelnden Subjekt fehlenden “Willen” oder “Intention” zu erstellen würde die Bewertung und Deutung seiner Handlungen eher erschweren. Wenn wir mit Systemen sprechen, triggern sie unseren Anthropomorphismus. Menschen sprechen auch mit ihren PKWs oder ihren Haustieren. Wir unterhalten uns mit Anwendungen, auch wenn sie gar nicht viel tun können. Alexa löst diesen Vermenschlichungs-Effekt aus – bei humanoiden Robotern ist er noch viel stärker. Die bisherige Forschung stellt Dehumanisierung als einen  automatischen Prozess dann dar, sobald zuvor Stereotype aktiviert wurden. Ob der Prozess der Anthropomorphisierung automatisch erfolgt ist noch nicht hinreichend bewiesen.

Es ist aber kognitiv schwierig für uns und allzu menschlich, in einem außer Kontroller geratenen Saugroboter nicht etwas anderes zu sehen als einen Softwarefehler. “Er” macht uns entweder wütend oder amüsiert uns in seiner tollpatschigen Art, wenn “er” dreimal hintereinander an die gleichen Stelle stößt und “verwirrt” einen anderen Weg einzuschlagen versucht. Wir erkennen in dieser Dose einige menschliche Eigenschaften wieder, würden uns jedoch nicht mit dieser Dose tatsächlich vergleichen. Das ambivalente Verhältnis von Akzeptanz von menschenähnlichen Maschinen enthält ein Paradoxon was als Uncanny Vally bezeichnet wird.

Besser über künstliche Intelligenz kommunizieren

Von Tobias K. – translation of Image:Mori Uncanny Valley.svg by Smurrayinchester (which is based on image by Masahiro Mori and Karl MacDorman at http://www.androidscience.com/theuncannyvalley/proceedings2005/uncannyvalley.html), CC BY-SA 3.0

Angenehme und unangenehme Ähnlichkeiten

Der Uncanny Valley-Effekt bezeichnet das Phänomen, dass die Akzeptanz von technisch simuliertem, nonverbalem Verhalten durch Zuschauer vom Realitätsgehalt des Vorgestellten abhängt, sich jedoch nicht stetig linear mit der Menschenähnlichkeit einer Figur steigert, sondern innerhalb einer bestimmten Spanne einen starken Einbruch verzeichnet. Die Grafik verdeutlicht dies.

Für Alltagsanwendungen – Sexroboter und andere Spezialfälle ausgenommen – dürften sich allzu menschengleiche Designs auf lange Sicht kaum durchsetzen. Für eine empathische Interaktion zwischen Mensch und Maschine braucht es gar kein künstliches Abbild unserer Selbst. So werden wir Gegenstände mit Eigenschaften, die wir heute als “menschlich” deuten eher akzeptieren, wenn diese Gegenstände oder Anwendungen uns eben nicht ähneln, sondern an der Schnittstelle maximal gut “verstehen” bzw. sie die erwarteten Ergebnisse liefern.

Viele unserer kognitiven Verzerrungen rühren daher, dass wir in unseren eigenen Köpfen eingeschlossen sind und so unsere Wahrnehmung der äußeren Welt durch unseren inneren Zustand (unsere Emotionen, etc.) beeinflusst wird. Wie zum Beispiel das Gefühl der Wut. Dies ist eine der universellen Emotionen. Sie hat sich evolutionär in unserem Nervensystem entwickelt  – vermutlich als Abschreckungsmittel gegen lästiges oder schädliches Verhalten anderer Lebewesen. Unsere Vorfahren, die nicht schnell und gewaltsam mit Bedrohungen umgegangen sind, hatten viel weniger Chancen, einen anderen Tag zu erleben und Nachkommen zu zeugen.

Die menschliche Natur hat viel Aggression in sich aufgenommen. Wenn wir also KI vermenschlichen, interpretieren wir auch unsere niederen Emotionen in sie. Wir gehen davon aus, dass sie zornig und egoistisch ist, genau wie wir. Deshalb scheint es auch für uns intuitiv und plausibel, dass die “KI uns unsere Jobs wegnimmt”.

Übermensch Maschine

Die Suche nach menschlichen Zügen in Gegenständen oder Lebewesen geht noch weiter. Leistungen, die über dem als gemeinhin menschlich Möglichen betrachtet werden, gelten als “übermenschlich”. Moderne Erzählungen wie der Terminator beflügeln die Vorstellungen einer starke KI in baldiger Zukunft. Den meisten “übermenschlichen” Robotern oder KIs ist eins gemeinsam: sie haben zwar intellektuell, sensorisch und motorisch den Menschen überlegene Fähigkeiten – Gefühle und Intuition möchten wir ihnen als quasi letzte Bastion des “unterlegenen Menschen” jedoch nicht unterstellen.

Eine “übermenschliche Leistung” sollte jedoch sorgfältig erklärt werden, wenn man eine KI bewerten möchte: auf welche Metriken und welchen Menschen beziehen wir uns? Wie weit ist die Aufgabe der KI gefasst? Auf wie vielen Daten oder Berechnungen beruht das Modell?

Besser über künstliche Intelligenz kommunizieren

Lehre und Lernen

Die Verwendung eines Wortes wie “Lernen” kann die Idee eines intelligenten autonomen Agenten hervorrufen. Dabei besteht die Anwendung von Algorithmen maschinellen Lernens heute meist darin, Datensätze von Eingangs- und Ausgangsdatenpaaren zu erstellen und ein Programm zu optimieren, um solche Eingaben auf ihre entsprechenden Ausgänge abzubilden. Das Programm nimmt keine Auswahl der Daten vor und wann und wie es ausgeführt wird. So hat es fast nichts damit zu tun, dass ein Programm etwas “gelernt” hat.

Es gibt keine KI, die Jeopardy spielen und Krankheiten diagnostizieren kann. Sie ist “nur” ein Haufen verschiedener Programme die auf bestimmte Gebiete trainiert wurden. Obwohl die Technik des “Machine Learning” das Wort “Lernen” beinhaltet, klingt es bei der Verwendung des Wortes “lernen” so, als würde der Computer so lernen, wie es die Menschen tun. Aber Machine Learning unterscheidet sich sehr stark vom menschlichen Lernen. Eine bessere Formulierung wäre also: “IBM hat einen maschinellen Lernalgorithmus auf einer großen Datenbank von Krankenakten ausgeführt, um ein System zu erstellen, das Krankheiten diagnostizieren kann” – nicht besonders geschmeidig, aber richtig.

Unsere Intuition über menschliches Lernen und Verhalten ist für eine Übertragung auf KI-Systeme wenig geeignet. Vergleiche mit dem menschlichen Lernen oder der menschlichen Entwicklung sollten daher vermieden werden. Wann immer wir ein Wort verwenden, um eine KI zu beschreiben, mit der wir auch den Menschen beschreiben, gibt es mit Sicherheit auch Menschen die maßlos überschätzen, was es tatsächlich bedeutet.

Dies führt dazu, dass Menschen die Fähigkeiten der heutigen künstlichen Intelligenz falsch interpretieren und meistens überschätzen. Aussagen wie: “Demnächst werden wir von einer KI verarztet” sind weder intelligent noch hilfreich – vielleicht sogar schädlich, weil sie mehr verschleiern als Erkenntnisse liefern.

Verben wie beschreiben, schätzen, erklären, beabsichtigen, lernen, modellieren, planen, spielen, erkennen, lesen, begründen, reflektieren, sehen, verstehen, schreiben die auf Maschinen angewendet werden, führen uns auf eine falsche Fährte. Sie im Zusammenhang mit künstlicher Intelligenz einzusetzen, kann zu den eben angesprochenen Fehldeutungen führen.

Besser über künstliche Intelligenz kommunizieren

Popkultur

Bevor es überhaupt Computer gab, kursierten bereits Erzählungen über von Menschen zusammengebaute (böse) Wesen, mit menschenähnlichen Eigenschaften. Diese Narrative prägen bis heute das Bild von künstlicher Intelligenz und Robotik. Frankenstein ist in Gestalt künstlicher Intelligenz oder Robotern in unseren gesellschaftlichen Diskurs zurückgekehrt.

Trotz der heutigen Verwendung von KI, die alle in die Kategorie “schwache KI” fallen, konzentrieren sich die meisten popkulturellen Darstellungen von KI auf eine menschenähnliche, allgemeine und damit “starke KI”. Schließlich ist die Vorstellung langweilig und wenig erzählerisch, sich auf ein Computerprogramm zu konzentrieren, dass menschlich geschriebenen Anweisungen ausführt. Dagegen regt es unsere Phantasie an, menschenähnliche Eigenschaften in eine Maschine zu packen und dazu eine passende Geschichte zu erfinden.

Im Gegensatz zu anderen technischen Themen, wurde über die künstliche Intelligenz lange in Science Fiction nachgedacht und geschrieben. Obwohl interessant, sind solche Spekulationen auch völlig losgelöst von der heutigen Realität der KI.

Populäre Filme wie Metropolis aus dem Jahre 1927, Blade Runner, Terminator, A.I. – künstliche Intelligenz oder I, Robot haben über viele Generationen hinweg unser Bild von maschinellen Akteuren beeinflusst. Unsere Vorstellungen sind von Robotern oder KI als Liebesdiener*in, Partnerersatz oder Killerroboter geprägt. Diese wirkt nach und zeigt sich in vielen Bebilderungen wieder. Beispielsweise ist die Maschinen-Maria auf jeder zweiten PowerPoint-Präsentation zu Robotik oder KI zu sehen. Wie in diesem Artikelbild zu KI übrigens auch. Es ist nicht verwerflich, Maschinen ein menschlicheres Aussehen zu geben, aber wir sollten uns bewusst sein, dass es uns schnell auf eine falsche Fährte führen kann. Wir Menschen tun uns sehr schwer damit, Unbelebtes nicht zu anthropomorphisieren.

Es ist wichtig und richtig, dass Künstler*innen und Medeinschaffende Gesellschaftsbilder im Zusammenhang des Einsatzes von künstlicher Intelligenz entwerfen. Oft sind diese Darstellungen einer starken KI jedoch hinderlich, wenn es darum geht, das tatsächlichen Möglichkeiten der Technologie und deren praktischen Nutzen realistisch zu bewerten. Die Angst- und Allmachtsphantasien, die oftmals mit der Vorstellungen einer starken KI entstehen, sind dabei kein guter Ratgeber.

Fazit

Eine Technologie setzt soziologische, anthropologische und psychologische Zusammenhänge nicht außer Kraft, sondern stellt unsere Bewertung und unser Bild von uns selbst auf die Probe.

Die Befürchtungen, die viele berühmte und kluge Köpfe wie Steven Hawking, Bill Gates, Elon Musk, und andere über die Bedrohung der Menschheit durch KI geäußert haben, erlauben mehr Rückschlüsse auf die Personen als über KI. Diese Perspektiven sind Spekulationen, die völlig losgelöst von allem Faktischen sind, was wir über die heutige KI wissen. Die Spekulationen über eine superintelligente und bösartige starke KI lenken von den alltäglichen, aber weitaus wahrscheinlicher werdenden Risiken ab, die die Technologie in naher Zukunft darstellen wird – aber auch von ihren praktischen Vorteilen.

KI ist keine magische, bedrohliche Kraft mit aggressiven Tendenzen. Sie ist eine lernende Software mit Zugriff auf immense Mengen von Datensätzen. Sie ist in der Lage, Zusammenhänge zu sehen und Ergebnisse zu produzieren, die kein Mensch je erreichen könnte, aber das bedeutet nicht, dass sie weiß was sie tut und einem Wunsch nach Konzepten wie z.B. der Weltherrschaft hat. Sie ist ein nützliches Werkzeug – ein Weg für uns, unsere Fähigkeiten zu erweitern und anders auf die Welt zu schauen, als wir es bisher konnten.

Sie ist nichts anderes als ein technisches Artefakt, mit dem wir bestimmte Tätigkeiten leichter oder schneller ausüben können. Mit dieser nüchternen Perspektive können wir den nützlichen Einsatz besser einschätzen und die damit einhergehenden Risiken rationaler bewerten. Die Erkenntnisse die uns KI liefern kann, sind atemberaubend genug. Die Vermenschlichung von Gegenständen oder Softwarekonzepten bringt uns dagegen nicht weiter.

Damian Paderta
Damian Paderta
Webgeograph & Digitalberater