this post was submitted on 09 Jan 2025
53 points (94.9% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2187 readers
488 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 6 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] einkorn@feddit.org 18 points 19 hours ago (4 children)

Na ja, was bedeutet "Algorithmus getrieben"?

Ein Algorithmus ist erstmal nur eine abstrakte Anleitung zur Lösung eines bestimmten Problems.

Auch Lemmy verwendet Algorithmen, um zu entscheiden, was es dir in welcher Reihenfolge anzeigt. Es sind die verschiedenen Gewichtungen und Parameter der Algorithmen der großen Konzerne, die das Problem sind.

[–] schnurrito@discuss.tchncs.de 13 points 19 hours ago (3 children)

Wenn du in den Medien das Wort "Algorithmus" liest, musst du (denke ich) ausblenden, was der Begriff eigentlich (in der Informatik) bedeutet. Damit sind fast immer KI-getriebene "Algorithmen" gemeint, die dem Benutzer auf intransparente Weise manches anzeigen und manches nicht.

Klar ist auch umgekehrt chronologische Sortierung wie bei Mastodon ein Algorithmus, oder Thread-Bumping wie in klassischen Webforen, oder die verschiedenen Sortiermöglichkeiten hier auf Lemmy, aber das meinen die Medien damit nicht.

[–] General_Effort@lemmy.world 3 points 11 hours ago (1 children)

Am Schluss wird dann irgendein Gesetz gemacht, welches von Gerichten ausgelegt wird. Was würde in dem Gesetz stehen, sodass Richter das dann richtig verstehen?

[–] schnurrito@discuss.tchncs.de 2 points 9 hours ago (1 children)

Ja, ist tatsächlich eine Herausforderung für die zuständigen Juristen in den Ministerien. Spontaner Entwurf: "Ein Empfehlungsalgorithmus ist ein System, das dem Endbenutzer Inhalte anzeigt, die er weder abonniert noch ausdrücklich angefordert hat und deren Auswahl nicht auf objektiven, transparenten Kriterien (wie etwa Erstellungsdatum oder Bewertungen durch andere Endbenutzer) basiert. Ein Algorithmus zur Sortierung von Suchergebnissen zählt nicht als Empfehlungsalgorithmus."

Damit sollten Mastodon, Lemmy, klassische Webforen, Wikis, etc., nicht abgedeckt sein, YouTube, Facebook, Instagram, etc. hingegen müssten sich so umstellen, dass dem Benutzer ausschließlich das angezeigt wird, was er ausdrücklich abonniert hat, und kein "das könnte Sie auch interessieren".

[–] gandalf_der_12te@feddit.org 1 points 38 minutes ago* (last edited 38 minutes ago) (1 children)

Naja, da hättest du Probleme.

Wenn du zu großen neuen Ereignissen (z.b. "california fire") suchst bzw auf die community clickst, und die ergebnisse nach upvotes sortiert sind, dann sind sicherlich clickbaity falschinformationen ganz oben. also das passiert ja eigentlich schon auf facebook und co.

ein lösungsansatz ist es sicherlich, nur "vertrauenswürdige" informationsquellen ganz oben anzuzeigen. Dann hast du aber automatisch schon wieder eine "bevorzugung" - die dann von den clickbaity seiten als "ungerecht" angeprangert wird - wohlgemerkt weil sie mit ihrer scheiße mehr geld verdienen wollen.

[–] schnurrito@discuss.tchncs.de 1 points 14 minutes ago

Mein ideales soziales Medium ist und bleibt ein klassisches Webforum, wo gar nicht nach Upvotes sortiert wird (weil es solche meistens auch nicht gibt), sondern nach Zeitpunkt, wann Dinge gepostet wurden. Ich gestehe aber auch ein, dass das möglicherweise nicht gut skaliert.

Ich denke in der Tat nicht, dass Betreiber sozialer Medien entscheiden sollten, was "vertrauenswürdige Informationsquellen" sind. Ein Grund, warum wir das Internet haben und haben wollen, ist ja, dass wir Benutzern auch ermöglichen wollen, ihre eigenen Erfahrungen und Beobachtungen zu posten, zu denen es vielleicht noch keine "vertrauenswürdige Informationsquellen" gibt.

[–] einkorn@feddit.org 17 points 19 hours ago* (last edited 19 hours ago) (1 children)

Doch, ich glaube, das sollten wir einblenden und den Leuten klarmachen, dass nicht "der große böse Algorithmus" das Problem ist, sondern die Unternehmen, die sie betreiben.

Technik ist kein Mysterium und viele Leute scheinen sich selbst eine Hilfslosigkeit antrainiert zu haben, die nur schwer abzulegen ist. Konkretes Fallbeispiel:

Meine Mutter möchte ihrer Mutter (also meiner Oma) ein sog. Feature Phone geben. D.h. das Ding soll nicht viel mehr können als Telefonieren und SMS verschicken. Wer soll es raussuchen? Ich, der Programmierer. Ich beschäftige mich auch nur alle paar Schaltjahre mal mit Handies, habe also auch nur die Webseiten mir bekannter Hersteller durchsucht und verglichen, bis ich auf etwas Vielversprechendes gestoßen bin.

Nur weil für eine Aufgabe ein Browser aufgemacht werden muss, bedeutet das nicht, dass man dafür einen Informatikabschluss braucht.

[–] cows_are_underrated@feddit.org 4 points 18 hours ago

Genauso ist es doch wenn man Mutter oder Oma bei einem Programm helfen soll von dem man keine Ahnung hat. In 90% der Fälle schauen wir auch nur "welcher Knopf sieht danach aus als könnte ich damit das gewünschte Ziel erreichen".

[–] Jesus_666@lemmy.world 9 points 19 hours ago (1 children)

Ja, aber das ist keine Ausrede, den Diskurs auf so unpräzisem Niveau zu führen – zumal es genug technologisch illiterate Politiker gibt, die dann tatsächlich ein allgemeines Verbot von Algorithmen fordern würden.

Nicht vergessen, in der Politik gilt "alle Verschlüsselungsalgorithmen müssen einen Zweitschlüssel für die Polizei bereit stellen, ohne an Sicherheit einzubüßen" als vollkommen einleuchtend und praktikabel.

[–] schnurrito@discuss.tchncs.de 2 points 18 hours ago (3 children)

Dem widerspreche ich nicht. Was ist dein Vorschlag, wie wir das, was YouTube macht, terminologisch von dem unterscheiden können, was Mastodon macht? Du hast Recht, dass es unpräzise ist, zu sagen, YouTube habe einen "Algorithmus" und Mastodon nicht - aber wie wollen wir den Unterschied dann nennen?

[–] d_k_bo@feddit.org 5 points 18 hours ago (1 children)

Intransparente personalisierte Empfehlungsalgorithmen

[–] cows_are_underrated@feddit.org 3 points 18 hours ago (1 children)

Und unfaire. Wenn rechte Hetze gegenüber Fakten mehr gepusht wird ist das unfair und das ist scheiße.

[–] gandalf_der_12te@feddit.org 1 points 30 minutes ago

Naja. Die sache ist halt dass rechte hetze mehr emotionen hervorruft und darum mehr reaktionen bekommt. wenn man jetzt nach reaktionen sortiert, bekommt man eben genau das.

[–] einkorn@feddit.org 3 points 18 hours ago

Ich würde einfach sagen, "die Irreführung durch Plattformen wie Xitter, Facebook und Youtube" muss aufhören. Weil nichts anderes ist es. Die Sachen, die einem als "Trending" untergeschoben werden, sind zu einem großen Teil künstlich aufgebauscht.

[–] federalreverse@feddit.org 2 points 18 hours ago* (last edited 18 hours ago) (1 children)

Das Problem sind letztlich die KPIs der betreibenden Unternehmens: Es geht darum, möglichst viel/oft/lange Aufmerksamkeit zu generieren (weil sich damit Werbung verkaufen lässt), egal, ob das negative Auswirkungen hat.

Sobald die Zielstellung ist, einen Debattenraum zu schaffen, wird das anders.

[–] schnurrito@discuss.tchncs.de 4 points 18 hours ago

spannenderweise hab ich auf kaum etwas so gerne längere Zeit verbracht wie in klassischen Webforen (kann mich erinnern, als Kind und Jugendlicher hab ich da manchmal alle paar Minuten aktualisiert), hingegen wird mir heutzutage von Facebook normalerweise innerhalb weniger Minuten langweilig; wenn also das das Ziel ist, versagt es vollkommen

[–] Ibuthyr@lemmy.wtf 5 points 18 hours ago (1 children)

Ich hatte gerade nicht den Nerv, das präzise auszuführen. Ich meine damit natürlich die Algorithmen, die kontrovers diskutierte Themen pushen, um die Sichtbarkeit zu erhöhen. Das wird ja von den Säcken mißbraucht. Oder man verbietet Werbung auf diese Weise zu schalten. Halt irgendwas, um diese toxische Kacke zu unterbinden.

[–] einkorn@feddit.org 2 points 18 hours ago (1 children)

Alles klar, es sei dir verziehen. ;)

[–] Ibuthyr@lemmy.wtf 1 points 17 hours ago (1 children)

Danke dass du meine Faulheit tolerierst Ü

[–] einkorn@feddit.org 1 points 16 hours ago

Wer im Glashaus sitzt und so ...

[–] Saleh@feddit.org 5 points 18 hours ago

Das könnte man z.B. mit einer Veröffentlichungspflicht für die Algorithmen regeln. Ich fände dabei auch gut, dass die für den individuellen Account gewählten Gewichte dann als personenbezogene Daten im Rahmen der DSGVO-Auskunft mitgegeben werden müssen.

[–] Ooops@feddit.org 2 points 18 hours ago* (last edited 18 hours ago)

Aber der Lemmy-Algorithmus hat nicht die Zielsetzung dich möglich lange mit toxischen Inhalten beschäftigt zu halten, um mehr Werbeeinnahmen zu generieren.

Und das ist ja noch die harmlose Variante. Denn diese Algorithmen sind ja nicht öffentlich. Die Zielsetzung könnte auch ganz direkt "Unruhen und gesellschaftlichen Zusammenbruch befördern" sein, und wir würden es nicht merken, weil das Endergebnis das selbe ist.

In so fern... nichts gegen Algorithmen. Sobald die üblichen Verdächtigen ihre veröffentlichen und die Richtigkeit dieser Veröffentlichung durch Reproduzierbarkeit nachgewiesen ist, können wir weiter darüber reden, ob die so erlaubt sein sollten.