Neue Gegenwart® – Magazin für Medienjournalismus
Neue Gegenwart® – Magazin für Medienjournalismus – Seit 1998 publiziert von Björn Brückerhoff

Singularität: Point-of-no-Return zur Utopie oder Dystopie?

Text: Stefan Bieletzke
Bild: Francesco Ungaro

Künstliche Intelligenz (KI) der Gegenwart ist ein fachlich-beschränkter Hilfs-Assistent, der oft kaum intelligenter daherkommt als ein Mensch mit natürlicher Dummheit. Durch maschinelles Lernen und exponentiell-beschleunigten Fortschritt werden die schwachen Assistenten aber alsbald zu Fach-Genies. Die Idee der Singularität ist, dass es einen Zeitpunkt gibt, an dem die Maschinen sich forciert selbst verbessern, so dass nach den Fach-Genies ein maschinelles Universal-Genie folgen kann. Der Punkt, an dem die Menschen dieser Universal-KI eine starke Intelligenz zuerkennen, die exponentiell wächst und die Intelligenz der Menschen schnell um ein Vielfaches überschreiten wird. Es ist der Scheidepunkt, an dem es kein Zurück mehr gibt in eine Welt ohne diese KI. Wenn der Universal-KI eine Entscheidungs- und Handlungskompetenz zuerkannt wird, wird die Gesellschaft eine andere sein, eine positiv-utopische oder eine negativ-dystopische Gesellschaft, je nachdem, welchen Moralstandpunkt die KI vertreten wird. 

Neue Gegenwart®
Prof. Dr. Stefan Bieletzke

Prof. Dr. Stefan Bieletzke

Prof. Dr. Stefan Bieletzke, geb. 1965, lehrte bereits 1996 das Fach „KI im Marketing“ an der Westfälischen Wilhelms-Universität Münster. Seit 2010 lehrt er „Technologie & Innovation“ an der Fachhochschule des Mittelstands (FHM). Der Artikel entstand nach einer Exkursion mit Studierenden an die Singularity-University im Silicon-Valley. Wikipedia-Eintrag 

Neue Gegenwart®
Dartmouth, Hawking, Musk und Kurzweil
1956 sind sich die Wissenschaftler der allerersten Tagung zu künstlicher Intelligenz in Dartmouth/USA einig, dass grundsätzlich „every aspect [...] or feature of intelligence can in principle be [...] described that a machine can [...] simulate it.“ [1] Nicht einig war man sich damals – wie auch heute –, ob dies durch neuronal lernende Systeme oder eher algorithmisch-logische Expertensysteme möglich sein würde. So oder so: damals fehlte die Rechen-Power.

Gegenwärtig werden neuronal-lernende Systeme als alsbald revolutionär und disruptiv-zerstörend angesehen, denn Datenbestand und Rechenkraft wachsen exponentiell. Die KI wird langsam erwachsen und mächtiger. Künstliche Intelligenz könnte das "schlimmste Ereignis in der Geschichte der Menschheit werden“ [2], wenn wir die KI nicht zu kontrollieren vermögen, sagte der Physiker Stephen Hawking. Ähnlich sieht es Elon Musk, Chef von Tesla und SpaceX, der KI für „deutlich gefährlicher als Atomwaffen“ [3] hält. Putin dazu: „Wer in diesem Bereich die Führung übernimmt, wird Herrscher der Welt.“ [4] Ein globaler Wettlauf um die Entwicklung einer Super-KI hat längst begonnen, denn so, wie der Faustkeil die erste Erfindung des Menschen war, so wird die Super-KI die letzte Erfindung sein, denn alle weiteren Erfindungen erfindet die KI und nicht mehr der Mensch.  

Anhänger der Singularitäts-Idee stellen sich diese Super-KI als eine Art digitales künstliches Gehirn vor, das sehr lernhungrig ist. Das Bewusstsein der KI wird dabei nicht programmiert, sondern ergibt sich aus dem Zusammenspiel der materiellen KI-Sub-Systeme, also quasi emergent. Am Anfang lernt die KI wie ein Kind von den Eltern. KI-Enthusiasten würden sagen, es lernt wie ein Affenkind von Affeneltern, denn die menschlichen Eltern sind schnell keine Lernhilfe mehr. Die KI schlussfolgert mit Weltwissen fachübergreifend schnell besser, als Menschen es könnten. Ob die KI intern ähnlich wie das menschliche Gehirn arbeitet oder komplett anders aufgebaut ist, ist dabei irrelevant. Ob es willentlich erschaffen wird oder cloudbasiert-unlöschbar unbeabsichtigt entsteht, ist auch nicht die Frage. Die Frage ist nur, wann dieser Zeitpunkt erreicht sein wird.

Jürgen Schmidhuber, Direktor des Schweizer Forschungsinstituts für KI, arbeitet an dem Ziel, bis 2025 ein System erschaffen zu haben mit den geistigen Fähigkeiten eines Kapuzineräffchens, was durch künstliche Neugier immer weiter lernt. [21] Ray Kurzweil, Google-Director of Engineering und Gründer der Singularity-University, nennt das Jahr 2040 als realistisch für das erste künstliche Gehirn und den „point of no return“, den Zeitpunkt der Singularität, an dem eine Art künstliches Universalgenie „geboren“ sein wird, das schnell intelligenter ist als Menschen, sich ausbreiten und die Gesellschaft unwiderruflich verändern wird. [5] 

Es wäre das erste Universalgenie seit 300 Jahren. Das letzte menschliche Genie, das das gesamte Wissen seiner Zeit überblickt hat, war Gottfried Wilhelm Leibniz, der 1716 starb. Danach haben sich Wissen, Information und Daten explosionsartig vermehrt und im Laufe eines Menschenlebens ist es deshalb nicht mehr möglich, ein Universalgenie zu werden. Jeder Wissenschaftler ist notgedrungen Spezialist, denn er kann nicht immer wieder auf die Schultern aller vorher lebenden Giganten steigen. Ein Wissenschaftler kann immer weniger fachübergreifend-transdisziplinär denken, obwohl es für die Lösung der ganzheitlichen Probleme immer wichtiger wäre. Eine KI hingegen stirbt nicht. Sie kann die Schultern aller Giganten erklimmen. Die unsterbliche KI kann ihr Wissen immer weiter und ganzheitlich ausbauen.
   
Die wichtigen Faktoren auf dem Weg dorthin sind Maschinenlernen und exponentielle Veränderung.
 
Exponentielles Wachstum
Der Mensch tut sich schwer, exponentielles Wachstum zu verstehen. Bitte schätzen Sie: Auf dem ersten Feld eines Schachbrettes liegt ein Cent, auf dem zweiten Feld liegen zwei Cent und auf dem dritten Feld vier Cent. Wenn bei jedem weiteren Feld die Anzahl der Cents weiter verdoppelt wird: Wieviel Euro liegen am Ende auf dem Schachbrett mit seinen 64 Feldern? 200 Euro, 2000 Euro oder gar acht Millionen, 18 Millionen oder 18 Trillionen? Wenn Sie nachrechnen, wird typisch-exponentiell der Betrag zunächst nur langsam steigen und ab einer kritischen Marke aber quasi explodieren. Die richtige Antwort wäre 18 Trillionen, mehr als das Bargeld aller Länder der Erde.

Ähnlich exponentielle Entwicklungen gibt es im Bereich von Technologien, bei Hardware, Software oder Plattform-Nutzerzahlen. So postuliert bekanntermaßen das Mooresche Gesetz, vereinfacht gesagt, die Verdopplung der Rechnerkapazität alle zwei Jahre. Im Oktober 2019 war der letzte exponentielle Moment, als ein mathematisches Problem, für das der schnellste verfügbare Großrechner über 10.000 Jahre gerechnet hätte, an einen Quantencomputer übergeben wurde. Der Quantencomputer löste das Problem in drei Minuten statt in 10.000 Jahren. [6] Anhänger der Singularität sehen solch exponentielles Wachstumspotential auch bei der künstlichen Intelligenz.

Schwach-spezielle und stark-allgemeine KI 
Um die Möglichkeit einer allgemeinen, starken Super-KI zu verstehen, soll vorab ein Blick auf die schon verfügbaren speziellen KIs geworfen werden. Eine spezielle KI ist eng auf einen kleinen Problembereich fokussiert und kann nur für diesen Problembereich als intelligent gelten.

1996 schlägt eine Maschine den Schachweltmeister Kasparov, weil der Maschine die Regeln programmiert wurden und sie alle Züge vorausberechnet und gewichtet hat. 2013 gewinnt eine Maschine gegen die Jeopardy-Meister und kann zuhören, mit Ironie und Wortwitz umgehen und auf „Wie lautet die Frage zu: Der Ort, der nicht existiert.“ spontan sagen: „Die Frage wäre: Was ist Bielefeld?“. 2016 gewinnt eine Maschine gegen den Meister des Brettspiels GO, was beachtlich ist, denn hierzu bedarf es weniger Rechenleistung als vielmehr Kreativität und strategisches Denken.

Die Brettspiel-KI namens AlphaZero hatte sogar keinen menschlichen Meister beobachtet, sondern nach dem Upload der Spielregeln nächtelang gegen sich selbst gespielt und seitdem gewinnt sie nicht nur fast immer und gegen jeden menschlichen Meister, sondern auch fast immer und gegen jede andere Maschine. Warum die Maschine bestimmte Züge macht, die es vorher nicht gab, ist nicht bekannt, und die Maschine lernt immer weiter dazu. Mit Menschen allerdings langweilt sich die Maschine inzwischen, was GO oder Schach angeht. Menschliche Großmeister der Spiele sprechen von bahnbrechenden Strategien: „Ich habe mich immer gefragt, wie es sei, wenn eine überlegende Spezies auf der Erde lande und uns ihre Art Schach zu spielen zeige. Nun weiß ich es“ [7], meint zum Beispiel der Großmeister Nielsen.

Im Universum der Brettspiele ist AlphaZero ein übermenschliches Genie, allerdings kann die KI nur Brettspiele spielen und kein Auto fahren. Die künstliche Intelligenz für das Auto hingegen wird das Auto besser als jeder Mensch fahren können, sie hat mehr Autofahr-Sinne als jeder Mensch und der letzte Mensch, der einen Führerschein macht, ist vermutlich bereits geboren. Aber diese KI des Autos kann keine Bankanlagen tätigen. Die Bank-KI, die Geld am Aktienmarkt erfolgreich investiert: Sie kauft und verkauft minütlich nach Regeln, die die KI selbst entdeckt, die auf aktuellen Daten beruhen, sich jede Minute ändern und die selbst die Bankberater nicht mehr verstehen. Und warum soll man sein Geld einem Bankberater geben, der zwei Prozent erwirtschaftet, wenn die KI zehn Prozent und mehr erwirtschaftet?

Eine allgemeine KI wäre eine KI, die nicht ein Genie in einem speziellen Feld ist, sondern ein Universalgenie. Ein Universalgenie, das auch gelernt hat, von den speziellen KIs, die bereits ein Genie in ihrem Spezialfach sind – dank Machine Learning. 

Machine Learning
Programme basieren auf Algorithmen, also bedingten Anweisungen, die ein Programmierer oder ein Expertenteam vorab definiert haben. Auch solchen Algorithmen wird bereits Intelligenz zuerkannt, wenn zum Beispiel ein Mensch nicht mehr unterscheiden kann, ob die Antwort auf eine Fachfrage von einem menschlichen Spezialisten oder der Maschine kommt (Turing-Test). Der Nachteil der algorithmischen Intelligenz aus Programmen ist, dass diese nicht einfach dazulernen und auch, was nicht unerheblich ist, dass menschliche Intelligenz zu deren Programmierung erforderlich ist.

Der Zweig dieser algorithmischen KI wird derzeit überflügelt durch die selbstlernenden KIs, die aus großen aktuellen Datenbeständen lernen, die dank der 30 Milliarden vernetzten Dinge des Internet of Things anfallen.[8] Wie funktioniert solch ein System, das selbst lernt, anstatt dass ein Programmierer den Algorithmus festlegt, zum Beispiel bei einem intelligenten KFZ-Auffahr-Sensor?

Der KFZ-Auffahr-Sensor bremst im Notfall automatisch. Bisher – traditionell – würde ein Auffahr-Sensor feststellen, ob der Abstand zum vorausfahrenden Auto sich gefährlich schnell verringert. In Abhängigkeit von Geschwindigkeit und Abstand hätte ein Programmierer vorher festgelegt, ob es ein Warnsignal oder eine Notbremsung gibt. Eine Regel kann sein: Wenn es noch drei Sekunden bis zum Aufprall sind, dann eine Notbremsung einleiten.

Beim maschinellen Lernen hingegen kennt das System zunächst weder Bremse noch Auto oder Abstand und keinen Algorithmus. Das Auto aber hat Sensoren, die dessen Sinne darstellen und Aktoren wie die Bremse. Zunächst beobachtet die KI das Auto, also die Sensoren und Aktoren, und versucht, ein heuristisches Modell, ein vereinfachtes Abbild der Zusammenhänge, zu schaffen. Das System greift allgemein auf alle, sagen wir, 10.000 Sensoren des Autos zu und tauscht diese Daten mit allen anderen verfügbaren Autos aus. Die KI erkennt ein Muster, also eine Abhängigkeit von irgendeinem Sensor und irgendeinem Aktor, nämlich hier, dass bei bestimmten Zuständen vom Abstands-Sensor der Brems-Aktor bremst. Es erkennt, dass man bei drei Sekunden bis zum Aufprall wohl notbremsen sollte. Wenn ein menschlicher Ingenieur diese von der KI erkannte Regel absegnet, spricht man von überwachtem Lernen.

Das Absegnen der Regel ist wichtig, denn aus einem Muster zu lernen ist ja ein Lernen aus vielleicht nur zufälligen Zusammenhängen (Korrelationen) und nicht etwa, weil kausalitätsbasiert die KI die Realität verstanden hätte. Aber auch die verfügbaren Korrelationen wachsen überlinear. Anhänger der Singularität sehen die Chance, die Kausalitäten der Realität mit multiplen Korrelationen doch erklären zu können. Um möglichst viele, auch schwache, Zusammenhänge immer aktuell berücksichtigen zu können, ist un-überwachtes Lernen dann unerlässlich.

Beim un-überwachten Lernen darf die KI die Regeln des Modells selbst festlegen und auch später ändernd an neue Situationen anpassen. Da die Welt sich fortlaufend ändert, immer neue Daten hinzukommen, ist es sinnvoll, dass auch die Regeln sich selbstlernend immer weiter anpassen und Entscheidungen nicht nur auf vergangenheitsbasierten Daten getroffen werden. Auch ein Mensch würde so lernen, also erst beobachten und später agieren und das eigene Verhalten anpassen, wenn er bei anderen bemerkt, dass das bisherige Verhalten unpassend ist.

Vielleicht bemerkt die KI aber auch etwas, dass kein Mensch vorher bemerkt hat, zum Beispiel, dass es sechs weitere Sensoren gibt wie Lichteinfall, Reifenwiderstand, Radarreichweite oder bald auch Alter des Fahrers, Geschlecht des vorausfahrenden Autofahrers oder des ge-chipten Fußgängers, die wichtig sind für den Bremsvorgang. Beobachtet wird dabei nicht nur das eigene Auto, sondern es werden alle vernetzten Verkehrsteilnehmer, die sich untereinander automatisch zu Brems-Erfahrungen austauschen, einbezogen. So kann ein Auffahr-Sensor entstehen, der fehlerfrei bremst. Nach der Phase der Beobachtung der Zusammenhänge, also der Bildung der Entscheidungs-Heuristik durch die KI, übernimmt dann ein einfacher Algorithmus den Bremsvorgang des eigenen und auch der anderen betroffenen Autos in Reichweite in Notsituationen. Da die KI dann entscheidet, wann und für wen gebremst wird, ist Ethik bereits vorprogrammiert.

KI-Ethik
Richter entscheiden vor der Mittagspause strenger als danach. [9] Algorithmen haben zwar keinen Hunger, verzerren aber auf andere Art. Die Einteilung in Gruppen wie „gut“ und „schlecht“ muss ein Algorithmus durch statistische Diskriminierungs-Methoden realisieren, die bei zum Beispiel schlechtem Daten-Ausgangsmaterial aber zu einer unerwünschten vor- oder nachteilhaften gesellschaftlichen Diskriminierung führen: Wenn Google bei der Bildersuche nach „Unternehmens-Chef“ fast nur männliche Krawattenträger um die 40 anzeigt oder einer Frau auf Jobsuche eher schlechter bezahlte Teilzeit-Jobs anbietet oder das Foto des guten Freundes aus Nigeria automatisch dem Album „Zoobesuch“ zuordnen will, dann wird klar, dass es heute bereits in den Maschinen tatsächlich eine Verzerrung (neudeutsch: Bias) gibt, die ethisch keine gute Grundlage für die Zukunft darstellt. [10]

Das moralische Regelwerk in eine KI frühzeitig einzupflanzen ist bedeutsam, denn nur anhand der Ethik kann entschieden werden. Die notbremsende Auto-KI könnte zu entscheiden haben, ob und wer bei einem tödlichen Unfall das Todesopfer sein wird. Der menschliche Fahrer hat bisher immer sein Leben zu retten versucht – die KI hingegen könnte abwägen zwischen dem Tod seines betrunkenen Fahrers, der den Unfall wegen zu hoher Geschwindigkeit erst verursachen wird und dem Kind, das bei Grün die Straße überqueren will. Für die KI sind die fünf Sekunden zwischen dem Erkennen des Unfalls und dem Unfall genug Zeit, um tausende Möglichkeiten abzuwägen. [11]

Wie aber kommt ein moralisches Regelwerk, die Ethik, in die KI? [12] Die Entwickler könnten versuchen, der KI eine Ethik zu „programmieren“. Der durchschnittliche amerikanische Entwickler, ein 24-jähriger Mann mit logisch-mathematischem Talent, der im wüstenhaften Silicon-Valley für ein gewinnorientiertes Unternehmen arbeitet, kann diese ethischen Fragen sicher nicht ausreichend berücksichtigen – er muss es aber derzeit schon. Er wird dafür bezahlt, den Algorithmus entscheidungsfähig zu machen und muss somit zwingend Normen und Werte in den Code integrieren. Dies ist sicher ethisch suboptimal. Vermutlich ähnlich suboptimal wäre es, wenn die KI den Menschen bei moralischen Entscheidungen beobachten würde und daraus eine allgemeine Ethik abzuleiten versuchen würde. Es ist zu befürchten, dass auch das so wichtige und gerade entstehende Berufsbild des Ethik-Data-Scientists und Algorithmen-Beauftragten ein oft ähnliches Schattendasein wie das des Datenschutzbeauftragten führen wird.

So oder so werden also Regeln ethischen Verhaltens derzeit in den speziellen KIs verankert. [13] Wenn wir davon ausgehen, dass die Universal-KI auch lernt von den speziellen KIs, die bereits ein Genie in ihrem Spezialfach sind, dann wird die Universal-KI auch ansatzweise die maschinen-gelernte, verzerrte Ethik der Spezial-KIs übernehmen.

Noch schwieriger wird es, wenn die Universal-KI gesellschaftliche Entscheidungen treffen soll, wenn die Ethik-Regeln nicht auf einen Menschen, sondern auf Gesellschaften anzuwenden sind. Asimovs Regel „ein Roboter darf keinem Menschen Schaden zufügen“ ist für gesellschaftliche Entscheidungen kaum anwendbar, denn bei solch mehrdimensionalen Entscheidungen wird es schnell keine verlustfreie Umverteilung (Pareto-Optimum) geben können, sondern immer auch Verlierer.

Bei der Herangehensweise des Nutzenmaximus für Gesellschaften würde es globalwirtschaftlich eine Umverteilung von Ressourcen geben, denn der Grenznutzen des Wohlstands ist gerade am Anfang hoch und die gesättigten West-Gesellschaften müssten nur ein wenig Nutzen hergeben für einen hohen Nutzenzuwachs in den Entwicklungsländern. Eine Ethik wie „das Wohl der Menschen ist zu maximieren“ führt im Hinblick auf die Menschheit also dazu, dass Ressourcen in Richtung der Entwicklungsländer laufen.

Einigkeit besteht vermutlich nur darin, dass das moralische Regelwerk nicht biozentrisch die Natur in den Mittelpunkt stellt, wo Pflanzen, Tiere und Menschen gleichberechtigt wären, sondern, dass die Menschen anthropozentrisch-positiv im Zentrum aller Abwägungen stehen – inklusive einer im Sinne des Menschen nachhaltigen Naturerhaltung.

Singularität
Immer schnellere Rechenleistung gepaart mit immer größeren Datenbeständen und den Dingen, die Daten untereinander austauschen, führen zu großen Erfolgen bei maschinellem Lernen, der Auswertung von Korrelationen und einem exponentiellem Wachstum der maschinellen Intelligenz. Die erfolgreichen Algorithmen werden neugierig sein, passen sich selbst an und verändern ihre Entscheidungsregeln. Entschieden wird bereits durch schwache KIs alsbald, wer Sozialhilfe bekommt, wer eingestellt oder entlassen wird, wer studieren darf oder wer bei einem unvermeidbarem Unfall getötet wird. Gefordert wird, dass solche Entscheidungen einer KI über Menschen zumindest transparent und nachvollziehbar sind [20], was aber gerade bei Monopolanbietern oder dynamisch-lernenden, vermaschten KIs kaum durchsetzbar beziehungsweise möglich sein dürfte. KI wird vermutlich oft über den Menschen entscheiden, ohne dass klar sein wird, wie diese Entscheidung gefällt wurde. Noch weniger verständlich werden die komplexen Entscheidungen einer starken, allgemeinen KI sein.

Eine allgemeine KI, ein neues Universalgenie, kann gewollt oder ungewollt entstehen und diese starke KI wird ihre Weltsicht schöpfen aus den schwachen Fach-KIs. Auch die starke KI wird unüberwacht dauernd dazulernen und den Entscheidungsalgorithmus auf einer unüberschaubaren Zahl an Sensoren, Mustern und Regeln optimieren. Die Anhänger der Singularität sehen die starke KI als eine Entität an, die entscheiden und handeln wird.

Bereits durch den Einsatz schwacher Fach-KIs, in Kombination mit Robotik, wird in mancher Studie für die nächsten Jahre erwartet, dass in Deutschland 30 Prozent aller Arbeitsplätze für Menschen verloren gehen. [14, 15] Immer mehr Arbeitsprozesse werden durch KI begleitet und später ersetzt. Wenn die kluge Maschine den Bediener zum reinen Überwacher macht, dann werden viele Arbeitnehmer überqualifiziert sein. [16] Auch deshalb wird ein Grundeinkommen diskutiert.

Ob diese Welle der Digitalisierung bereits disruptiv-zerstörend wirkt wie ein neuer Kondratieff-Zyklus, ist anzunehmen. Eine starke KI würde ähnlich, aber viel weitgehender, zunächst beraten und begründen und letztlich übernehmen und entscheiden, ob zum Beispiel ein Wirtschaftssystem oder ein politisches System sinnvoll ist und wie es gemäß eines Moralsystems umzubauen ist. Science Fiction, deren Wurzeln aber in unsere Zeit zurückreichen werden, in der die schwachen KIs ihre Moral gelernt haben.

Wenn die starke KI intransparent und nicht nachvollziehbar entscheidet oder das Moralgerüst der starken KI biozentrisch die Natur im Mittelpunkt sieht, dürfte es für den Menschen eher dystopisch-negativ werden, da dann die Bedürfnisse von Tieren und Pflanzen für die KI wichtig sind wie der Mensch. Wenn das Moralgerüst eher anthropozentrisch-nachhaltig vom Menschen ausgeht und den Wert der Natur nur aus Menschensicht berücksichtigt, dann kann sich für den Menschen auch eine positive Utopie verwirklichen. Ob nach der Singularität eher die Euphoriker oder Apokalyptiker recht behalten, ob utopische oder dystopische Zeiten anbrechen, wird demnach auch heute bereits entschieden und wir müssen gegenwärtig die richtigen Weichen stellen.

PS: Sie sind skeptisch, dass KI zur Singularität führt? Das ist erwartbar in Deutschland, denn Deutschland steht 2019 bei der „Readiness for Digital Lifelong Learning“ im europäischen Vergleich der 27 Länder leider nur auf dem letzten Platz 27. [17] „Made in Germany“ steht für Präzision, Sicherheit, Stabilität und aber auch digitale Skepsis und es steht nicht für Agilität, Web-Erfolg oder Disruption. Auch steht es nicht für Erfolg im Bereich KI, wo China und die USA fast uneinholbar vorne sind [18], weil dort zum Beispiel die notwendigen großen Datenbestände viel leichter verfügbar sind. Wir müssen den Spagat wagen, unsere Tugenden beizubehalten und gleichzeitig KI und Singularität proaktiv in unsere Pläne integrieren. [19, 20]
Quellen

Neue Gegenwart®

© Copyright Dr. Björn Brückerhoff. Alle Rechte vorbehalten. | Impressum und Datenschutzerklärung | Kontakt