Bildzoom ohne Javascript←▼→Textbausteine mit Autohotkey f…

gedanken,software,werkzeuge

emClient mit AI

Erstellt: 04.07.2024 Lesedauer ~2:20 Min.

Weil wir offenbar immer dümmer werden, bekommt alles „künstliche Intelligenz“, die das ausgleichen soll. So auch mein E-Mail-Programm »emClient«. Zum Glück lässt sich diese Funktion deaktivieren.

Wozu schreiben wir uns, wenn sich nur noch Automaten unter unserem Namen miteinander unterhalten?

Menschen lauschen gespannt einer als Mensch erscheinenden Maschine 🔍

Wenn wir Menschen zunehmend auf Maschinen vertrauen, wird selbst denken, lernen, forschen irrelevanter.

Was wir als Antworten finden, entscheiden Algorithmen von Dritten, deren Motive im Dunkeln liegen.

Kann das der richtige Weg sein?

Die machen das mit einstellbarer Freundlichkeit und Länge – genauer: dem, was die Entwickler des Algorithmus dafür als „angemessen“ definieren. Mit dem, was uns als eigenständige Persönlichkeiten ausmacht, hat das bestenfalls marginal etwas zu tun.

Als Unterhaltungsgrundlage verwendet die „Intelligenz“ Vorgaben. Bei einer Antwort ist das maßgeblich der erhaltene Text. Womit große Tore für Datenschutz-Fragen aufgestoßen werden. Für die Antwort muss der Text an den Automaten von OpenAI übermittelt werden. Der liegt weit außerhalb der Demarkationslinie der DSGVO.

Kann es Freunden, Verwandten oder Kunden egal sein, dass ihre Post rund um den Globus geschickt und in eine Maschine gefüttert wird, die aus dem wachsenden Bestand aller übermittelten Texte Antworten generiert?

Privat mag es eine Grauzone und Frage des Anstands sein. Im gewerblichen Bereich ist die Nutzung einer US-basierten „Intelligenz“ für E-Mail-Antworten ohne weitere Regelungen ein klarer Verstoß gegen den Datenschutz. Natürlich kann mit Kunden vorab eine Vereinbarung getroffen werden, damit deren Anfragen zur Beantwortung ins Ausland an einen Textgenerator geschickt werden dürfen. Was Kunden absehbar die Preiswürdigkeit von Beratungsleistungen abwägen lässt. Diese „Antwort-Automaten“ kann jeder bedienen. Dafür braucht keiner einen Umweg über jemanden, der sich die Weiterleitung bezahlten lässt.

Zweifellos ignorieren diese sich abzeichnenden Abkürzungen den „Kompetenzträger“, der Grund für das Bezahlen einer Beratung ist. Lässt der das Gefühl aufkommen, er habe keine Lust auf eine persönliche Beschäftigung mit mir, sinkt meine Lust, ihn zu fragen. Vermeintlich schlaue Antworten gibt es überall im Internet kostenlos.

Meine Experimente mit „künstlichen“ Texten beschreiben das Ergebnis sehr präzise: das Generierte wirkt auf mich künstlich. Die Belastbarkeit vermeintlicher Information ist ein noch verheerenderer Punkt.

Automaten könnten bestimmt meinen Sprachduktus übernehmen. Dafür muss lediglich der Zugang zu all meinen Texten gewährt und ein Sprachprofil von mir angefertigt werden. Die Maschine kann dann Texte generieren, die nach mir klingen. Wie sie meine Gedanken, Erfahrungen, Geistesblitze, Erlebnisse und alles andere das mich ausmacht, in diese Texte einfließen lassen kann, dürfte noch eine ganze Weile eine harte Nuss für Entwickler „künstlicher“ Intelligenz sein.

Insbesondere, weil das keine Intelligenz ist, sondern Persönlichkeit. Wenn Maschinen in der Lage sind, die zu kopieren, wird belastbare, zwischenmenschliche Kommunikation kompliziert. Dann lassen sich Fake-Videos generieren, die sowohl so aussehen wie wir, als auch für uns Aussagen treffen können, die glaubhaft erscheinen. Die Verifikation auf Echtheit ist dann nur noch im persönlichen Gespräch, Auge in Auge möglich: eine Videokonferenz faken ist keine ernsthafte Herausforderung mehr.

Die Bedingungen für das Vertrauen in digitale Medien werden zunehmend schlechter. Keine guten Voraussetzungen für eine immer digitalere Welt.

Das Bild wurde mit der künstlichen Intelligenz des „Image-Creators“ von Microsoft erzeugt.