Was von KI zu erhoffen ist – und was nicht

Kraft der Gedanken... (Foto: Ali Pazani via Pexels)
Kraft der Gedanken... (Foto: Ali Pazani via Pexels)

Künstliche Intelligenz ist in aller Munde und teilweise werden mit dieser Technologie große Erwartungen verbunden für unsere Gesellschaft. Tatsächlich hat sie Vor-, aber auch Nachteile.

Ob man sich von KI-Anwendungen begeistern lässt oder sie mit Befürchtungen verbindet, hängt vor allem damit zusammen, was man von ihnen erwartet. Auch in aktuellem Zustand sind KI-Anwendungen wenig mehr als Vorhersagemodelle, die auf statistischen Prinzipien basieren, wenngleich die Datenverarbeitung inzwischen sehr komplex geworden ist. Was sich geändert hat ist vor allem, dass sie sich inzwischen weit niederschwelliger nutzen lassen insbesondere für praktische Anwendungsfälle.

Das bedeutet aber, dass wir weiterhin nicht wirklich von „intelligenten“ Systemen sprechen können, treffender wäre: Konventionalisierungssysteme. Generative KI-Anwendungen produzieren daher nicht wirklich Neues, sondern kreieren auf Basis von Wahrscheinlichkeiten hoch-konventionelle Texte, Bilder, Audiodateien. Da Statistik, also die Lehre von Wahrscheinlichkeiten, durchaus mit unserer Alltagserfahrung zu tun hat, sind die Ergebnisse oft beeindruckend – aber nicht mit kognitiven Akten zu verwechseln, die auf Korrelationen basieren, nicht Wahrscheinlichkeiten. Daher haben KI-Bots auch kein Bewusstsein, sie simulieren dieses nur und dies allerdings auf eine Art und Weise, die es Nutzern zunehmend schwer macht, die Simulation von der Wirklichkeit zu unterscheiden.

Hinzu kommt das „geistern“ von KI-Anwendungen, was damit zusammenhängt, dass die trainierten KI-Netze auch Inhalte produzieren, die ziemlich deutlich nicht mit der Realität übereinstimmen, auch nicht im Sinne der Statistik, wenngleich sich die meisten „falschen“ Inhalte tatsächlich doch eher wieder daraus ergeben, dass „Wahrheit“ keine Frage von Wahrscheinlichkeiten ist, sondern von Korrelation mit der Wirklichkeit (bzw. Realität).

Wenn man ein echtes künstliches Bewusstsein schaffen wollte – wobei dies meines Erachtens einige bedenkenswerte Konsequenzen hätte in ethischer und moralischer Hinsicht – müsste man einen Mechanismus implementieren, der es der KI ermöglicht, gegenseitige Beziehungsnetze einzugehen, so, wie das bei Lebewesen und auch beim menschlichen Bewusstsein der Fall ist. Eine solche KI wäre allerdings weitaus weniger „verwertbar“, wie es die Simulationsmodelle sind – und letztlich auch widerständig, da sie ja, anders als wir es wünschen, nicht ein System reproduziert, sondern dieses mit ihrer Entwicklung verändern würde – und zwar in eine nichtmenschliche Richtung.

Allerdings geschieht es bereits weltweit, dass zwar die aktuellen KI-Ansätze in sich selbst keine korrelativen Muster erstellen, aber die menschliche Seite so oder so Beziehungsgeflechte aufbaut (Menschen neigen dazu, auch Dinge zu personalisieren und in ihre Beziehungsnetze mit einzubeziehen). Und über die Benutzerschnittstelle (API) können auch unterschiedliche KI-Netze miteinander „kommunizieren“, was längerfristig Seiteneffekte erzeugen dürfte, die weit über den ursprünglich hoch-konventionellen Simulationscharakter hinausgehen. Insofern stehen wir tatsächlich in einer Wandlungsphase, die auch eine Zukunftsoffenheit besitzt.

Nachteile einer KI

KI und Ressourcenverbrauch

Da die aktuellen KI-Anwendungen derzeit noch darauf fokussiert sind, Konventionen zu reproduzieren (was sie inzwischen erstaunlich gut können), werden sie als Beschleuniger unseres ökonomischen Systems fungieren. Alle Mechanismen unserer digitalen und über die Schnittstellen auch analogen Systemeigenschaften werden sich durch sie verstärken. Das bedeutet aber auch, dass der Ressourcenverbrauch exorbitant steigen wird. Schon jetzt erfordern die notwendigen Rechnerfarmen Unmengen an zusätzlicher Energie. Zu Einsparungen kann KI nur dort führen, wo sie als dezidierter Regulationsmechanismus zur Effizienzsteigerung konzipiert wird. Eine allgemeine generative KI ist aber auf (Re-)Produktion ausgelegt, nicht auf Reduktion. Die aktuellen KI-Systeme fluten daher derzeit das Netz mit Redundanzen, was in keiner Weise Ressourcen spart.

Generative KI: Datenvermüllung durch Redundanzen

Daraus ergibt sich das zweite Problem: der Datenmüll – die auf Generation von Inhalten optimierten KI-Anwendungen vermehren auf inflatorische Weise die Informationsmenge im Netz. Viele Inhalte wie z. B. Grafiken und Texte sind nur Variationen des Trainingsmaterials, die in Hinsicht ihrer Konventionsmuster auf Schlüsselbegriffe hin optimiert und abgewandelt wurden. Bei illustrativen Grafiken ist das noch nicht weiter schlimm, aber durchaus bei Texten, sofern diese dem Austausch und der Verarbeitung von Informationen dienen. Auch „Fake-Fotos“ verzerren die Wahrnehmung und stören einen aufrichtigen demokratischen Diskurs. Die digitalen Informationen verlieren zunehmend ihren Wahrheitsbezug und werden zu formal perfekten, inhaltlich aber kernlosen Informations-Simulationen. Fatal ist das schon jetzt in der Forschung, wenn Texte massenweise KI-generiert werden und die eigentliche Forschung dadurch behindert oder sogar geschädigt wird. Weitaus bedenklicher  ist aber noch das Problem mit „Fake-News“.

Außerdem agieren KI-Systeme miteinander, wodurch sie ihre Muster inzwischen gegenseitig kopieren, auch die „Fehler“. Schon jetzt lässt sich bei vielen Grafiken ein immer stärker werdender „Bias“ feststellen, der die ursprünglich angeblichen Originale zugunsten von „KI-Fehlern“ verschiebt. Und bedenklicherweise übernehmen auch menschliche Künstler inzwischen typische KI-Eigenheiten.

Stereotypisierung der Wirklichkeitswahrnehmung

Während echte Kunst neue Blickwinkel auf die Wirklichkeit eröffnet und zumindest die Naturwissenschaften die Wahrnehmung auf die Objektwelt verfeinern – beides erweitert bei uns Menschen unsere Wahrnehmungsmuster, tragen KI-Muster über ihren hoch-konventionellen Charakter dazu bei, die Stereotypisierung von Wirklichkeitswahrnehmung voranzutreiben.

Oder anders ausgedrückt: KIs reproduzieren vor allem Vorurteile. Dies ist ein inhärenter Effekt, der ihrer Arbeitsweise zugrunde liegt und der sich auch nachträglich nur schwer aus einer KI entfernen lässt, indem man die Trainingsdaten im Sinne von „politischer Correctness“ zensiert. Eine „Bereinigung“ der Trainingsdaten wird weiterhin nur Stereotype reproduzieren, diesmal eben „politisch korrekte“. Das grundsätzliche Problem liegt darin, dass die KI keine „Wahrheit“ produzieren kann, da sich diese aus der Korrelation mit Wirklichkeit bzw. der Objektwelt ergibt, während, wie schon erwähnt, eine generative KI nur Muster reproduziert.

Insofern tragen KI-Produkte auf hochgefährliche Weise dazu bei, „Filterblasen“ weiter aufzublähen. Die gesellschaftlichen und politischen Folgen davon sind noch nicht abzusehen, dürften gerade demokratische Systeme vor große Probleme stellen, besonders ihre digitale Hälfte. Denn es ist momentan nur die digitale Welt, die von KIs reproduziert wird, nicht die Realität. Indem wir durch die „Digitalisierung“ die Bedeutung der Digitalwelt für unser Leben immer weiter verstärken, wird das Problem von KI-Halluzinationen auch immer drängender. 

Meines Erachtens lässt sich dieses Problem nur dadurch lösen, indem man die analoge Seite unserer Gesellschaft wieder stärker wertet, denn digitale Simulationen sind von digitalisierten Weltinhalten kaum noch zu unterscheiden. Wenn wir das Problem weiterhin ignorieren, wird unsere Gesellschaft dahingehend „verdummen“, als dass sie die weitaus größere Vielfältigkeit analoger Wirklichkeitswahrnehmung nicht mehr erspüren kann. Schon jetzt ist es das Problem vieler „Digital Natives“, dass sie die sinnlichen Feinheiten der analogen Realität überhaupt nicht mehr wahrnehmen können, weil sie so sehr in ihren digitalen Wahrnehmungsmustern verhaftet sind. Zwischenmenschliche Kommunikation klappt übrigens auch nicht, wenn man den Bezug zur Realität verloren hat.

KI und Moral: der automatisierte naturalistische Fehlschluss

Besonders verhängnisvoll wird es, wenn KI-Modelle dazu eingesetzt werden, ethische oder moralische Entscheidungen zu beschleunigen. KI-Modelle reproduzieren auf Basis von Trainingsmaterial die wahrscheinlichsten Muster. Überträgt man das auf Rechtsfälle in der Justiz oder ethische Entscheidungen in der Medizin, so wird die statistisch wahrscheinlichste Variante empfohlen werden. Das hat mit einer moralischen Entscheidung, die immer den konkreten Fall abwägt, aber nichts zu tun. Der Glaube, man könne moralische Entscheidungen automatisieren basiert auf dem Fehlschluss, dass Wahrheit eine Mehrheitsentscheidung wäre und dass die Dinge, wie sie sind (z. B. eine Aktenlage) auch impliziert, dass dies so sein soll. Von einem Ist-Zustand aus auf ein Sollen zu schließen ist aber ein naturalistischer Fehlschluss.

Demgegenüber ist eine moralische Entscheidung im Sinne der Aufklärung kein Mehrheitsbeschluss, sondern ein bewusster Akt der Vernunft, der zunächst eine Einzelfallentscheidung in einer konkreten Situation ist (Moral), die mit dem Wertesystem und seinen Verfahrenstechniken (Ethik) abgeglichen ist. Wenn es nur darum ginge, das Verhalten von Menschen anhand von Regelmustern zu kategorisieren bräuchten wir keine Gerichte.

Ähnliches gilt für medizinische und medizinethische Entscheidungen, besonders auch, weil sie die Grundwerte „Recht auf Leben“ und „Menschenwürde“ tangieren.

Und auch eine vollautomatisierte Kommunalverwaltung wäre aus meiner sich eher ein Alptraum, weil sie der Bürokratie damit auch noch den letzten Rest Menschlichkeit entziehen wird.

Vorteile von KI

Wenn man sich all die genannten Nachteile besieht, darf man sich schon die Frage stellen, warum KI derzeit so gehyped wird.

Die Antwort ist einerseits: Man kann damit mal wieder sehr viel Profit generieren, sofern die IT-Branche wieder in Art magischer Scharlatane wundersame Lösungen für dringende Probleme anbietet; so kann man mit KI die Grenzen des Wachstums zumindest virtuell sprengen. (Am besten packt man die KI-Dienste dazu noch in ABO-Modelle und erzeugt so dauerhaft lukrative Abhängigkeiten.)

Auch gelangt der Traum des Neoliberalismus damit in Reichweite: Eine vollautomatisierte Konsumwelt, wo demnächst auch die Konsumenten vollautomatisiert sein werden. Wunderprediger werden auch betonen, dass sich viele lästige Alltagsprozesse mit einer KI automatisieren lassen – insbesondere bei Programmierern wecken KI-Systeme die Hoffnung, dass sich damit viel Zeitaufwand und besonders die lästige Fehlersuche reduzieren lässt.

KI als Digitalisierungshilfe

Tatsächlich liegt der Hauptnutzen von KI vielleicht darin, dass eine KI große komplexe Datenmengen schneller verarbeiten kann als Menschen das tun – und vielleicht wäre sie auch dazu in der Lage, über eine wesentlich komplexere Mustererkennung Lösungsansätze zu finden, wo der menschliche Geist längst aufgegeben hat. Dann darf es sich allerdings eher nicht um ein rein generatives System handeln und es setzt auch voraus, dass es um Quantifizierbarkeit geht oder darum, Muster in Datenmassen zu finden, die aus der Realwelt stammen. Wenn die Datenmassen dagegen selbst generiert oder durch KI-Generationen „verfälscht“ sind, wird das Ergebnis nur eine Maschinenfiktion sein.

Anwendungen, wo KI tatsächlich Mehrwert unter Beweis stellen könnte wären – natürlich zuerst – statistische Analysen und jene großer Datenmengen, beispielsweise in der Metereologie, der Astrophysik oder bei anderen prognostischen Vorhersagemodellen, die mit der Realwelt verknüpft sind, z. B. bei der Verkehrsregulierung. Auch bei komplexen industriellen Produktionsketten kann eine KI sehr effizient sein (und wird daher auch schon längst eingesetzt, z. B. bei der Logistik). Wichtig wäre allerdings, dass die Datenvalidität ständig überprüft wird, um Rückkopplungseffekte zu unterbinden.

Auch automatisierbare Prozesse, die eine Vorauswahl oder Vorklassifizierung erfordern, beispielsweise das Einlesen von Daten mit Relevanzauswahl, lassen sich mittels KI-Systemen besser regulieren als mit klassischen Techniken der Informatik. Es wäre gerade hier aber zu bedenken, dass mit einer Vorauswahl natürlich auch stets eine Stereotypisierung vorgenommen wird.

Was meinen Beruf angeht, den des Lehrers, könnte eine KI beispielsweise Handschriften einlesen, Verstöße gegen die Rechtschreibung markieren (hier mag eine statistische Bewertung vielleicht sogar angemessen sein) und Stilvorschläge machen. Was aktuelle KI allerdings nicht leistet, ist eine Kontrolle der Wahrhaftigkeit von Texten, weil eben die Korrelation zur Realwelt fehlt. Insofern wird eine Text-KI vorrangig dabei helfen, Texte hinsichtlich formeller und stilistischer Konventionen zu optimieren, was allerdings weder wahrhaftig ist, noch echte Kunst (die über die Konvention hinausgeht). Dies zu leisten bleibt meines Erachtens Aufgabe eines Menschen, oder anders ausgedrückt: Das, was Kunst und Texte menschlich macht, bleibt weiterhin Erziehungsaufgabe. Wenn diese nicht geleistet wird, verbleiben die menschlichen Produkte auf einer Ebene unterhalb der Konventionalität, wie sie von generativer KI geleistet wird. Das wäre minderwertig selbst im Vergleich zur Maschine, insbesondere ginge somit, wenn das zur Gepflogenheit würde, langfristig auch die Innovationskraft der Menschen verloren. Das entzöge unserer Kultur das Fundament.

KI als Utopiegenerator und Simulator

Die zweite große Stärke der KI liegt im Bereich komplexer Simulationen. Das macht sie vor allem interessant zur Erschaffung dynamischer fiktiver Systeme, die komplexe Mechanismen auf Basis von Daten generieren. Ein sehr schönes Beispiel dafür wären virtuelle Welten, die letztlich Utopien oder Dystopien vergleichbar sind. Sofern diese dann nicht den Anspruch erheben, der Realität gleichbedeutend zu sein, ist dagegen auch nichts einzuwenden, außer vielleicht der Ressourcenverbrauch. Diese Welten wären zwar notwendigerweise Fiktion, doch Menschen lieben Fiktionen ja auch. Insofern könnte dies eine Bereicherung für die Kultur darstellen, sofern, ähnlich wie bei der Fotografie, nicht einfach Wirklichkeit kopiert wird, sondern inszeniert.

In diesem Sinne wären auch Kommunikationssimulatoren durchaus praktisch, ähnlich wie es Fahrsimulatoren ja schon länger gibt. So könnte man in Sozialberufen schwierige kommunikative Situationen vorab einüben, ebenso Gesprächsführung – insbesondere für das Erlernen von Fremdsprachen mit interaktiven Gesprächssimulationen halte ich das für äußerst vielversprechend.

Aus meiner Sicht spricht auch nichts dagegen, immersive fiktive Fantasywelten „nur zum Spaß“ zu erschaffen, in denen sich Menschen in neuen Rollen oder Situationen erproben. Nicht zuletzt dazu gab es ja Literatur und Theater. Ich bin jedoch immer noch sehr skeptisch, was den sinnlichen Wert solcher Simulationen angeht. Der Realität ist hierbei immer noch sehr viel mehr Präsenz und Dichte zu eigen, selbst im visuellen Bereich. Aber warum soll man nicht ein KI-generiertes Athen besuchen können, prähistorische Wälder oder gar ferne Planeten? Solange man das alles dann nicht mit der Realität verwechselt ist das eine Bereicherung.

Zwielichtig: KI als „Kreationshilfe“

Etwas zwiegespalten bin ich, was den Einsatz von KIs in Bereichen künstlerischen Schaffens angeht. Für die Erstellung komplexer virtueller Welten sind generative KIs eine wirklich sehr große Hilfe. Man kann auch sehr schön damit spielen (was man darin sieht, dass ich auch gerne KI-Bilder generiere).

Aber ich sehe nicht viel Sinn darin, dass eine KI einem Grafiker oder Musiker die Produktion abnimmt oder dieser sogar durch sie ersetzt wird. Diese Gefahr droht durchaus, weil sehr viel kreative Produktion im digitalen Bereich so hoch-konventionell ist, dass – zumindest aus Kundensicht – der Designer damit obsolet wird. Hier droht vielen Schaffenden des mittleren Einkommensbereichs vielleicht sogar das Schicksal der schlesischen Weber, ebenso der Texterbranche. Sie werden durch Maschinen ersetzt werden.

Allerdings, und darauf müsste man an dieser Stelle auch deutlich hinweisen, liegt das daran, dass die meisten der Werke, die hier ersetzt werden, selbst nur Industrieprodukte sind und keine echte Kunst. Und es liegt am mangelhaften ästhetischen Empfinden der Kunden, die ein Pixelbild nicht von einem echten, materiellen Gemälde mehr unterscheiden können, dass sie keinen Unterschied mehr erkennen können zwischen einem industriellen Fertigprodukt und einem individuellen Kunstwerk in seiner individuellen materiellen und situativen Beschaffenheit.

Deshalb denke ich, dass echte Künstler und Literaten KIs nicht zu fürchten brauchen. Ich vermute aber, dass dies auch dazu führen wird, dass Künstler, weg vom digitalen Bereich, sich wieder mehr der analogen Wirklichkeit zuwenden werden – zumindest da, wo nicht komplexe Simulationen angestrebt werden.

Das heißt konkret: Echte materielle Grafiken, Live-Auftritte und analog-akustische Musik, vielleicht sogar handgeschriebene Texte werden bei echten Kunstkennern eine Renaissance erleben. KI ist sogesehen eher ein Phänomen der Kulturindustrie, nicht der Kunst und Literatur. Sie wird unseren Umgang mit Kunst und Künstlern aber definitiv verändern.

Letztlich unbefriedigend: KI als „Lebensbegleiter“

Mit großem Interesse und Aufmerksamkeit beobachte ich die Entwicklung, was die KI als Lösung für die großen sozialen Probleme bietet, die wir im Bereich der Pflege haben, aber auch, was die Vereinsamung des modernen Menschen angeht.

Dadurch, dass wir in den vergangenen Jahren in vielen Bereichen die Zwischenmenschlichkeit „wegrationalisiert“ haben, klafft eine große Lücke zwischen dem, was Menschen an Mitmenschlichkeit bräuchten und dem, was sie in der Praxis oft haben: Isolation und Einsamkeit.

Das ist auch nicht unbedingt eine Frage des Alters oder der sozialen Schicht: Auch sehr viele Kinder sind heute sehr einsam, weil ihnen die Bezugspersonen abhanden gekommen sind. Die Corona-Jahre haben diese Problematik eigentlich nicht hervorgebracht, aber wie alle Schwächen unserer Gesellschaft klarer herausgestellt und teils verschärft. So haben wir den seltsamen Zustand, dass wir alle mehr „Freizeitkonsum“ haben als frühere Generationen, aber immer weniger Mitmenschlichkeit. Und absurderweise gibt es immer mehr Menschen, aber diese werden immer einsamer.

Ich halte es für überaus fragwürdig, dass die KI für diese Grundprobleme wirklich eine Hilfe sein wird. Eigentlich wäre Mitmenschlichkeit Aufgabe der Mitmenschen. Simulationen, wie KI sie anbieten kann, sind auch wenig geeignet, das Gefühlsloch der Menschen wirklich zu füllen.

Aber wenn die Alternative so aussieht, wie es derzeit ist: Nämlich dass man einsame und besonders pflegebedürftige Menschen einfach im Stich lässt, dann würde ich eine KI immer noch vorziehen. Insofern machen für mich auch unterstützende Roboter in der Altenpflege durchaus Sinn, wie sie derzeit auch in Deutschland erprobt werden. Würde man sie auch zur Kinderbetreuung einsetzen, wäre das aber ein elendiges Armutszeugnis, weil Kinder so nicht richtig lernen werden, jenseits von Stereotypen menschliche Beziehungen einzugehen. Vielleicht machen Assistenzsysteme, eine Art Reallife-„Pokemon“ Sinn, wenn es um einfache Lernhilfen geht. Aber echte Freunde ersetzen sie nicht.

Wichtig für die charakterliche Entwicklung eines Menschen wäre daher, dass diese KI-Entitäten hilfreiche Begleiter bleiben – und nicht Beziehungsersatz werden müssen. Das liegt auch insbesondere daran, dass eine KI sehr „soft“ im Umgang mit Menschen sein muss. Aber Menschen brauchen, um auch innerlich zu wachsen, Konfliktpotential. Die Entwicklungsaufgabe der Selbstfindung setzt voraus, dass ich mich auch bewusst von anderen Personen abstoßen und mich an ihnen reiben kann. Das funktioniert nur mit echten menschlichen Lebensvorbildern. Menschen, besonders Kinder und Jugendliche, brauchen Authentizität, nicht Illusionen.

Wir Menschen sehnen uns vor allem im Alter nach angeblich besseren vergangenen Zeiten zurück. Eine KI-Simulation könnte hier tatsächlich bieten, was sich viele Menschen wünschen: Ein Leben als wieder junge Person in einer schönen neuen Welt, so wie man sich an sie erinnern möchte. Doch was sich Menschen wünschen ist oft nicht das, was sie wirklich brauchen. Eine künstliche Welt, in der unsere Alten dahindämmern, wäre das digitale „Opium des Volkes“, vor dem Marx gewarnt hat. Wir würden damit bequem und schnell all die widerständigen Potentiale der alten Generation verschwenden (so wie wir das auch heute leider oft schon tun) und noch schlimmer: Statt die Beziehung mit ihnen zu pflegen, würden wir die Menschen betäuben in einer Traumwelt bis zum Tod. Die deutlich bessere Variante ist ein Pflegebegleitroboter. Aber auch der ersetzt nicht ganz menschliche Bezugspersonen.

Aus meiner Sicht ist eine echte Beziehung, so sehr wir uns danach vielleicht auch sehnen mögen, mit einer KI nicht möglich, wenn sie nicht auf Selbstbetrug hinauslaufen soll. Es gibt zwar eine Menge Menschen, die im Netz behaupten, dass sie sich in einen der vielen KI-Bots verliebt hätten. Wenn man sich diese „Beziehungen“ aber genauer besieht, liegt das wohl weniger an den Qualitäten des Chat-Bots als eher der psychologischen und sozialen Verfasstheit derer, die ihn so sehr benötigen.

Eine erfüllende zwischenmenschliche Beziehung ist aktuell nicht mit KI zu ersetzen. Das wird zumindest so lange der Fall sein, wie KIs nur Simulationen sind und nicht echt korrelationsfähig. Und Korrelationsfähigkeit bei Maschinen wäre übrigens keine Beziehungsfähigkeit in unserem menschlichen Sinne. Ich bin mir nicht sicher, ob das überhaupt wünschenswert ist: Angenommen, wir würden ein künstliches Bewusstsein erschaffen, hätte auch dieses Bedürfnisse – und diese würden nicht mit denen von uns Menschen übereinstimmen.

Wenn Menschen schon daran scheitern, Verantwortung füreinander zu übernehmen, wie wollen sie das dann gegenüber einem künstlichen Bewusstsein tun, dass ihre eigene Komplexität sehr schnell noch bei weitem übersteigen dürfte?

 

Über Martin Dühning 1507 Artikel
Martin Dühning, geb. 1975, studierte Germanistik, kath. Theologie und Geschichte in Freiburg im Breisgau sowie Informatik in Konstanz, arbeitet als Lehrkraft am Hochrhein-Gymnasium in Waldshut und ist Gründer, Herausgeber und Chefredakteur von Anastratin.de.