this post was submitted on 23 Sep 2024
69 points (97.3% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2034 readers
450 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 5 months ago
MODERATORS
 

Martin Bernklau wird Opfer der Künstlichen Intelligenz

Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet.
....
Zusätzlich liefert Copilot noch die volle Adresse von Bernklau mit Telefonnummer und Routenplaner.
...
Viele Jahrzehnte war Bernklau Gerichtsreporter, hat für verschiedene Zeitungen über Prozesse aus dem Landgericht Tübingen berichtet - über Fälle von Missbrauch, Gewalt und Betrug, mit denen er jetzt in Verbindung gebracht wird, weil sie auch im Internet zu finden sind. Die KI kombiniert, trägt zusammen und macht so den Reporter zum Täter.
.....
Der zuständige Datenschutzbeauftragte vom bayerischen Landesamt wendet sich - Monate nach einer Beschwerde Bernklaus - mit dem Fall an Microsoft. Dort sichert man zu, das Problem abzustellen. Tatsächlich verschwinden die Einträge recht schnell. Doch nach ein paar Tagen erscheinen dieselben Aussagen wieder im Chat. ...

EDIT: Der Link hat gefehlt! Sorry.

top 30 comments
sorted by: hot top controversial new old
[–] Ephera@lemmy.ml 28 points 1 month ago (1 children)

Geil, also wenn man in irgendeiner Form mit einem Verbrechen assoziiert ist, wahrscheinlich sogar wenn man Opfer oder Retter war, versteht die KI nur "verurteilter Verbrecher ~~Gustav Ganove beklaute~~ Max Mustermann".

[–] Matombo@feddit.org 15 points 1 month ago* (last edited 1 month ago) (1 children)

Na ja wenn es nur um stochastik geht:

Verurteilter Verbrecher Gustav Ganove beklaute Max Mustermann.

Verurteilter Verbrecher Hans Heler beklaute Max Mustermann.

Verurteilter Verbrecher Dieter Dieb beklaute Max Mustermann.

Dieser verdammte verurteilte Verbrecher Max Mustermann!

[–] TeutonenThrasher@feddit.org 6 points 1 month ago

Erika Musterfrau hat es auch faustdick hinter den Ohren!

[–] Saleh@feddit.org 28 points 1 month ago (4 children)

Warum läuft das eigentlich unter "Datenschutz" und nicht als Strafverfahren wegen Verleumdung?

[–] Asetru@feddit.org 18 points 1 month ago (2 children)

Bernklau stellt Strafanzeige wegen übler Nachrede, die wird abgelehnt. Begründung der Tübinger Staatsanwaltschaft: Es sei kein Straftatbestand erfüllt, weil als Urheber der Behauptungen (die Künstliche Intelligenz, Anmerkung d. Redaktion) keine reale Person in Betracht komme.

Ich bin selber gerade noch... überrascht. Wenn mir ne schlaue Bemerkung dazu einfällt kommt die hier noch hin, bis dahin erstmal nur das Zitat.

[–] Takios@discuss.tchncs.de 12 points 1 month ago

Puh also solange ich eine "KI" dazu bringe es zu sagen darf ich also über jeden Lügen verbreiten. Aber war ja schon immer so was IT angeht "Software Problem, kann man nix machen"...

[–] hamburgheftig@feddit.org 0 points 1 month ago

Das halte ich für eine völlige Fehleinschätzung der Tübinger Staatsanwaltschaft. Natürlich ist auch eine Firma zur Rechenschaft zu ziehen, wenn diese Firma eine Software produziert, welche strafbare Dinge macht. Und es ist halt auch nicht so, dass es hier keinen Urheber gebe, die keine reale Person ist, sondern es gibt halt ganz konkrete Täter, also die Leute, welche die Software genau so produziert und releast haben.

[–] norimee@lemmy.world 7 points 1 month ago (1 children)

Der Artikel der eigentlich beim Post dabei sein sollte geht darauf ein.

https://www.swr.de/swraktuell/baden-wuerttemberg/tuebingen/ki-macht-tuebinger-journalist-zum-kinderschaender-100.html

Sorry für die Verspätung,ich hab nicht gemerkt, das der link nicht übernommen wurde.

[–] Saleh@feddit.org 3 points 1 month ago
[–] DetektivEdgar@feddit.org 1 points 1 month ago (1 children)

Das deutsche Strafrecht setzt an das Verhalten von Personen an. Dementsprechend ist es nicht möglich, Unternehmen zur Verantwortung zu ziehen. Deswegen ist strafrechtlich hier nicht so viel zu holen, denke ich Mal. Anders wär es vielleicht, wenn man zufällig wüsste, dass bestimmte Angestellte für die falschen Angaben verantwortlich sind.

[–] trollercoaster@sh.itjust.works 3 points 1 month ago (1 children)

Im Zweifel der Geschäftsführer, oder?

[–] DetektivEdgar@feddit.org 3 points 1 month ago* (last edited 1 month ago) (1 children)

Der trägt zivilrechtlich natürlich Verantwortung und daraus kann man im Strafrecht sicher auch teilweise etwas ableiten. Aber hier stand ja Verleumdung im Raum und die setzt Vorsatz voraus. Das scheint mir hier eine recht hohe Hürde.

[–] trollercoaster@sh.itjust.works 3 points 1 month ago (1 children)

Hinter dem Betrieb der "KI" dürfte durchaus Vorsatz stecken, das macht eine Firma ja nicht, weil sie das eigentlich gar nicht will.

[–] DetektivEdgar@feddit.org 2 points 1 month ago (1 children)

Ja, natürlich. Die Software wird vorsätzlich eingesetzt. Aber bei der Verleumdung muss sich der Vorsatz einer Person auch darauf beziehen, dass eine bestimmte Info falsch ist.

[–] trollercoaster@sh.itjust.works 3 points 1 month ago* (last edited 1 month ago) (1 children)

Eine Software, die Texte anhand statistischer Wahrscheinlichkeiten von Wortfolgen generiert, erzeugt zwangsläufig auch sachlich falsche Texte. Wer eine solche Software als "Assistenten" in ein Betriebssystem einbaut, nimmt billigend in Kauf, dass sie falsche Informationen verbreitet und die Benutzer das für bare Münze nehmen.

[–] DetektivEdgar@feddit.org 1 points 1 month ago* (last edited 1 month ago)

So kann man sicherlich argumentieren, wenn Eventualvorsatz reicht.

Mein Studium ist lange her und ich bin kein Strafrechtler, aber bei dem Aspekt, dass eine bestimmte Info falsch ist, braucht es wohl sicheres Wissen. Das wäre dolus directus 2. Grades, falls es jemand bei Wikipedia nachlesen will.

Das in Kauf nehmen ist weniger streng.

[–] General_Effort@lemmy.world -2 points 1 month ago (1 children)

Er hat eine Maschine bedient, die Texte generiert. Mit der Maschine hat er einen Text erzeugt, der ihn verleumdet. Soll er sich selber anzeigen?

Nicht vergessen, dass die KI kein Mensch ist. Und wenn, wäre es Beleidigung, wenn nicht nachgewiesen wird, dass die Falschbehauptung auch gegenüber anderen gemacht wurde.

Ich denke, die Hersteller sollten deutlicher auf die Schwächen der Anwendung hinweisen. Ein älterer Mensch weiß ja nicht, was das ist, wenn auf einmal Copilot im Edge Browser auftaucht. Aber ob sowas Schadenersatz wegen seelischer Grausamkeit oä rechtfertigt, glaube ich eher nicht.

[–] RQG@lemmy.world 5 points 1 month ago (1 children)

Also wenn ich ein Programm schreibe, das jemanden beleidigt, bin ich auch fein raus?

[–] General_Effort@lemmy.world 0 points 1 month ago (1 children)

Wenn dich die NPCs in einem Spiel als Milchtrinker beleidigen, wirst du damit leben müssen. Das heißt aber nicht, dass es eine Ausnahme für Programme gibt. So funktioniert das nicht.

[–] iLove@programming.dev 4 points 1 month ago (1 children)

Wenn mich ein NPC im Spiel beleidigt, sagt er das nur mir.

Wenn eine Person vor anderen Falschaussagen über mich trifft, dann ist das nicht in Ordnung. Ob das jetzt im Kontext eines Spiels ist, der Realität oder eines statistischen Programms. Alles nicht in Ordnung, wenn ich nicht damit einverstanden bin.

[–] General_Effort@lemmy.world 1 points 1 month ago (1 children)

Ich verstehe, dass du dich irgendwie gestört fühlst. Man könnte die Gesetze ändern. Aber was genau will man damit erreichen? Warum ist es so wichtig zu kontrollieren, was andere Leute mit ihren Geräten machen?

Mir geht es bei dieser Frage um diesen Willen zur Machtausübung. Es gibt ja schon ultra-viele Vorschriften, sodass man Computer-technisch kaum was machen kann. Ich glaube nicht, dass es Lemmy-Instanzen in der EU gibt, die rechtskonform sind. Was soll sowas?

[–] iLove@programming.dev 1 points 1 month ago (1 children)

Wie ein anderer bereits schrieb, ließe sich die Gesetzeslage so, sei sie denn tatsächlich so wie hier vermutet, ausnutzen. Man schreibe ein statistisches Programm (GPT) welches von einer breiten Masse benutzt wird und dessen Aussagen, mangels technischer Kenntnisse, größtenteils für Wahr genommen werden. Man nutze dieses Programm explizit für die Verbreitung von Fake News. Man beeinflusse so politische und gesellschaftliche Verhältnisse. Verfolgt werden kann solch Praxis anscheinend nicht, da keine wahrhafte Person dafür verantwortlich ist. Das ist ein Problem.

So etwas gibt es ja schon in Form von Twitter/X, nur, dass es immens mehr Arbeit ist den gewünschten Content manuell in persona zu moderieren. Diese Arbeit übernimmt das hypothetische böse GPT für dich.

Siehst du das nicht als Problem?

[–] General_Effort@lemmy.world 1 points 1 month ago

Das wird so nicht funktionieren. Es ist ziemlich egal, wie du die Verleumdung verbreitest. Es kommt darauf an, dass du es tust.

In diesem Fall ist es ziemlich unwahrscheinlich, dass irgendjemand bei OpenAI jemals auch nur von diesem Mann gehört hat. Wie können sie ihn dann verleumden?

Sollte sein Ruf durch das Produkt gelitten haben, dann gäbe es wahrscheinlich die Möglichkeit Schadenersatz zu verlangen. Der Artikel gibt aber keinen Hinweis auf so einen Schaden. Ich sehe nicht mal einen Hinweis, dass sonst irgendwer ChatGPT über den Mann befragt hätte, geschweige denn die Aussage geglaubt hat.

[–] geissi@feddit.org 15 points 1 month ago (1 children)

Wie, generative KI spuckt nicht immer die Wahrheit aus?
Da verdopple ich vorsichtshalber lieber den Kleister in meiner Pizzasoße.

[–] trollercoaster@sh.itjust.works 2 points 1 month ago

Lass uns darauf doch mit einem Döschen Lack anstoßen! Prösterchen!

[–] DmMacniel@feddit.org 5 points 1 month ago

Jeder der nur ein bisschen Ahnung von LLMs und Stochastik versteht sah dieses Problem vorraus.

[–] norimee@lemmy.world 2 points 1 month ago
[–] Kissaki@feddit.org 1 points 1 month ago* (last edited 1 month ago) (1 children)

Diffamierung ist strafbar.

Ich weiß jetzt nicht ob Microsoft oder copilot angeklagt werden können soll, aber einer von beiden, oder beide.

Ich finde das ganze steht und fällt wie es präsentiert wird, wie die Benutzeroberfläche es darstellt und in Kontext setzt.

Wenn der copilot dir Fragen beantwortet impliziert das erstmal Annahme von Korrektheit.

[–] norimee@lemmy.world 1 points 1 month ago (1 children)

Ich wollte grade sagen, da wird im Artikel drauf eingegangen und hab gemerkt, das es den den link gar nicht übernommen hat. 🙈

https://www.swr.de/swraktuell/baden-wuerttemberg/tuebingen/ki-macht-tuebinger-journalist-zum-kinderschaender-100.html

[–] Kissaki@feddit.org 1 points 1 month ago

Der Post link zum Artikel? Doch, der war da und hat funktioniert.

Ich hatte den Artikel nicht ganz gelesen. Bzw ist das ja trotzdem eine interessante und diskussionswürdige Frage.