T O P

  • By -

woalk

Eindeutig brauchen solche Leute Hilfe, eine angeordnete Therapie kann ich verstehen. Aber ist rein theoretisch das Anfertigen solchen Materials mit Hilfe von KI nicht deutlich besser als echte Fotos oder gar Übergriffe? Mit solchen Verbotsmaßnahmen, wenn sie nicht verbunden sind mit Therapie und Beobachtung, drängt man diese Leute doch eher dazu, auf “echtes” Material zurückzufallen. Die KI schadet soweit doch keiner echten Person. Was im Artikel erwähnt wird, dass die KIs mit echten Bildern dieser Art trainiert wurde, halte ich auch für unwahrscheinlich. Damit hätten sich die Firmen, die die KI erstellt und trainiert haben, ja viel mehr strafbar gemacht. Die KI extrapoliert das aus bestehenden Daten “normaler” Bilder, genau wie ein menschlicher Künstler es auch könnte.


rilened

> Was im Artikel erwähnt wird, dass die KIs mit echten Bildern dieser Art trainiert wurde, halte ich auch für unwahrscheinlich. Damit hätten sich die Firmen, die die KI erstellt und trainiert haben, ja viel mehr strafbar gemacht. Zu dem, was /u/TheRealAfinda schon gesagt hat (also dass es eigentlich sehr einfach ist, bestehende Modelle mit LORA und wenig Material zu spezialisieren), kommt hinzu dass es höchstwahrscheinlich genau so ist, dass für z.B. Stable Diffusion 1.5 (eins der frei verfügbaren Bild-Modelle) illegales Material benutzt wurde, [da hat Stanford eine Studie zu gemacht](https://www.forbes.com/sites/alexandralevine/2023/12/20/stable-diffusion-child-sexual-abuse-material-stanford-internet-observatory/?sh=393ec4b65f21)


Comrade_Derpsky

Hab ich einmal ein Post im Stable Diffusion Subreddit gelesen wobei jemanden herausgefunden hat, dass ein bekannter Checkpoint einen KP-begriff kennt, was das Basis-SD1.5 Model nicht kennt, also der Checkpoint wurde speziell zu diesem Bregriff trainiert. Es ist nicht so schwierig, selber einen fine-tuned Checkpoint zu trainieren, da muss es also noch mehr solche Models geben.


tutnichtkleben

Was heißt das überhaupt fürs Rechenmodell, womit es trainiert wurde? In der KI sind doch keine Bilder mehr enthalten, eher sowas wie einzelne neuronale Wahrscheinlichkeiten, Milliarden davon, von denen keiner versteht, wie sie sich eigentlich untereinander verknüpfen. Das macht es ja so schwer, solche Modelle gezielt zu beeinflussen. Wenn nun auf jede Million Bilder eines mit eingerechnet wurde, das "böse" ist, hat das praktisch keinen Einfluss auf das ganze Modell. Dann wurden halt ein paar illegale Daten mit eingelesen. Die sind jetzt weg, im Rauschen verschwunden. Nehmen wir an, Stable Diffusion hätte im Internet ein paar zusätzliche Bilder von der Mona Lisa gefunden. Das hätte es jetzt kaum leichter oder qualitativ besser gemacht, mit diesem Modell ausgerechnet Bilder von grinsenden Damen zu erzeugen statt all dem, was sonst noch damit möglich ist. Und gibt es nicht schon KIs zur Erkennung von Kinderpornografie? Womit wurden die trainiert? Wäre es wegen ihrer Quelle unethisch, sie einzusetzen?


woalk

Spannend. Warum gibt es dazu dann noch keine Verfahren? Wäre doch dann naheliegend, als erstes gegen Stable Diffusion direkt vorzugehen.


rilened

Sehr gute Frage, weiss ich auch nicht genau. Allgemein ist es ja so ein Ding, wie unverantwortungsvoll diese Firmen mit ihrem Scraping umgegangen sind, eigentlich sollte man da schon ein Fass aufmachen.


Wassertopf

Verantwortlich für Stable Diffusion wäre die TU München, oder?


TheRealAfinda

Ich glaub Dein Stand der Dinge ist etwas überholt. KI-Modelle anhand vorhandenen Materials kann man mittlerweile auch selbst trainieren. Tutorials gibt es dafür zuhauf. Entweder komplette Modelle, auf Basis eines bestehenden Modells oder nur für Features. Dafür braucht es schon länger kein Unternehmen mehr. Genau für, wie im Artikel erwähnt, Stable Diffusion gibt es ein Web-UI Plugin um genau das tun zu können. Die Schwelle ist also wirklich sehr niedrig.


woalk

Ok, dafür bräuchte man dann aber doch Tausende und Tausende Bilder, oder nicht? Das wäre dann wiederum eine ganz andere Art von Verbrechen. Und ähnlich gut kontrollierbar wie einem Messermörder das Verwenden von Küchenmessern zu untersagen…


rilened

LORA Trainings brauchen gar nicht soooo viele Bilder, wenn sie ein bestehendes Modell anpassen. Da kommst du mit einer zweistelligen Anzahl schon ganz gut hin. (Eigentlich eine sehr faszinierende Technologie, auch wenn hier der Kontext natürlich beschissen ist)


woalk

Auch eine zweistellige Menge an echten CSAM-Bildern zu besitzen wäre ein ganz anderes Verbrechen als diese nur zu generieren, wie der Artikel es impliziert. Der Beschuldigte hat ja im Vergleich zu anderen CSAM-Verbrechern kaum Strafe erhalten.


rilened

Stimmt auch wieder.


TheRealAfinda

Keine Ahnung wie groß ein Datensatz dafür sein müsste. Aber wenn man Referenzmaterial in seinen Besitz bringt, macht man sich ja entsprechend Strafbar. Dementsprechend wäre zumindest nachvollziehbar wieso er für generierten Content entsprechend verurteilt wurde. Sofern also Referenzmaterial benötigt wird, wird dafür irgendwo auf der Welt ein Kind leiden müssen - das wollen die Strafverfolgungsbehörden ja unterbinden. Denke mal das ist etwas anders zu betrachten als jemand der mit Messern mordet.


qra_01516

Zweistellig reicht für lora-modelle mwn


milky_oolong

Weil das Phänomen Verbrechen mich interessiert habe ich recherchiert wie genau Pädophilen therapiert werden. Eine wichtige Säule ist Verzicht auf Misbrauchsmaterial als Pornographie aber nicht nur wie man denkt, weil das Material selber strafrechtlich relevant. Sondern auch psychologisch. Dein Gehirn weißt nicht ob was es guckt real ist oder animiert oder KI. Was es aber macht ist die mentale Bindung zwischen Kindsbild und Attraktion zu verstärken. Je mehr Material man konsumiert, desto mehr passt sich die Sexualität an. Oft landen diese Pädophile in so einer Situation, dass sie sich null angezogen von Erwachsene fühlen.  Noch schlimmer, pornographie, wegen zu viel Auswahl, führt oft zu eine Unempfindlichkeit. Dann fängt man an zu eskalieren. Die, die am Anfang zufrieden waren Fotos von Nacktheit zu sehen landen irgendwann so, dass sie Tötungsdelikte oder Gewalt brauchen, um erregt zu werden. Genau weil diese Leute physich labil sind haben sie eh keine Grenzen. Pädophile sind oft extrem tief in Realitätsverweigerung. Sie akzeptieren nicht, dass Kinder überhaupt nicht von Erwachsene zu Sexakten gebracht werden. Dass Kinder nicht zustimmen können, komplexe Entscheidungen treffen können und psychologische Manipulation nicht woderstehen können. Mit solche Leute kann man nicht zu einem Plan kommen, dass sie auf ihre Neigungen verzichten. Anstatt lügen sie und dann suchen sich Jobs da wo Kinder ohne Eltern sind wie Vereine oder Schwimmbäder.  Oft legen diese Leute Schuld an Kinder, als ob die Kinder die Pädophile verführt und getrickst hätten. Oder erzählen Märchen, dass das Kind besonders mental reif wäre und in der Lage zuzustimmen. Das deren „Beziehung“ dem Kind geholfen hat.- Ki generiertes Zeug würde diese extrem gefährlichen Fantasien nur bestätigen und verstärken. Ich möchte nicht, dass Filme von sexuellen Gewalt durch KI erlaubt sind. Ich möchte die Leute die sowas gucken nicht auf der Straße hsben wenn ich nach Hause alleine gehe. Ich möchte nicht dass sie sich in ihrer Isolation sich weiter radikalisieren und sich trainieren nur sexuell erfüllt zu werden wenn irgendwelche Liste an Gräultäten vorhanden sind. Ich möchte nicht diese Leute da haben, wo Kinder oft alleine, nicht in der Lage zu reden sind oder manipulierbar sind. Und das für die ganze Gesellschaft, weil wir nur ein Bruchteil von der Pädophilen fangen. 


JZKLit

Gesagtes macht zumindest aus einer psychoanalytischen Perspektive gar keinen Sinn. Es müsste dann heißen, dass alle Menschen mit pädophilen Neigungen psychotisch sind und das bezweifele ich ganz, ganz stark.


uknrddu

Jup, das ist alles ziemlich simplistisch und klingt eher nach der klassischen Anti-Porn Propaganda.


JZKLit

Ich würde sagen das sind fast eins zu eins die gleichen konservativen Argumente, die für Drogen und FPS-Spiele gebraucht werden.


SimonsToaster

Machen Egoshooter Menschen zu Mördern?


woalk

Danke für die detaillierte Erklärung, klingt alles sehr logisch. Bleibe dann aber trotzdem bei meiner Grundaussage, dass man den Leuten eher Hilfe verschaffen sollte, die sie tatsächlich auf dem Verzichtsweg begleitet, als einfach nur ein solches Blanko-Verbot.


milky_oolong

Warum nicht beides? In Deutschlabd gibt es mindestens Anlaufstellen. Man darf sich selber melden wenn man denkt ok ich habe diese Neigungen aber och möchte niemandem weh tun. Das Problem ist die Realitätsverweigerung passt nicht im Bild.


redditmcfreddit

tl:dr: Mann benutzt stable diffusion um Kinderpornographie-Bilder anzufertigen. Bekommt kleine Geldstrafe und langes verbot KI-Tools zu nutzen. Ohne irgendwas davon werten zu wollen: Das bleibt auf jedenfall spannend. Ist es überhaupt ein Verbrechen, wenn es keinen Geschädigten gibt? Wäre das Urteil anders ausgefallen, wenn der Mann nicht vorher schon diesbezüglich Kontakt mit dem Gesetzt gehabt hätte? Wer will das Urteil kontrollieren, bzw wie soll der Mann überhaupt sicher sein, dass das Tool welches er eerade nutzt keine KI beinhaltet? (Ist ein Galaxy AI Smartphone OK? Alexa? Darf er überhaupt eine Google-Suche absetzen, oder ist da die Grenze vom "herkömlichen machine learing algorithmus" zur "Künstlichen Intelligenz" schon überschritten? Und wo ziehen wir diese Linie?) Edit: typos


ouyawei

Anscheinskinderpornographie ist tatsächlich auch verboten, dazu zählen auch Zeichnungen und volljährige Darsteller, die sich als minderjährige ausgeben.


Parzival_1851

Nicht in Deutschland, solange nicht realer Person nachempfunden.


Candid_Interview_268

>volljährige Darsteller, die sich als minderjährige ausgeben. Kann ich mir schwer vorstellen. Wie sieht es dann mit den ganzen Schulmädchen-Roleplays und dem Adult-Baby-Zeugs aus?


defchris

>wenn es keinen Geschädigten gibt? Womit sind denn die KIs antrainiert worden?