"Unser bisher fortschrittlichste Bilderstellungsmodell". Mit diesen Worten bewirbt Stability die neueste Version der Bild-KI Stable Diffusion. In der damit umworbenen Community fragen sich hingegen viele eher, ob die Veröffentlichung wirklich ernst gemeint ist. Liefert die KI doch statt ansehnlicher Bilder oftmals feinstes Material für Albträume.

Beispielhaft

Das neue Stable-Diffusion-3-Medium-Modell produziert bei der Aufforderung, Menschen darzustellen, zum Teil reichlich verstörende Bilder. In einem Thread bei Reddit haben User besonders eindrückliche Beispiele gesammelt, doch auch sonst ist der gesamte Subreddit zur Stable Diffusion derzeit voll mit entsprechenden Bildern.

Stable Diffusion Fail
Mit diesem Bild begann die Debatte, es folgten viele noch viel schlimmere Kreationen von SD3.
-f1-f2-f3-f4- / Reddit

Dabei zeigt sich, dass die neue Version die bekannten Probleme von Bild-KIs mit Händen auf ein komplett neues Niveau hebt und zum Teil grob verformte Ergebnisse liefert. Doch auch sonst wirken Bilder, die Menschen zeigen sollen, wie eine freie Anordnung von mehr oder weniger realistischen Körperteilen.

Was die Angelegenheit besonders verblüffend macht: Solange keine Menschen abgebildet werden sollen, liefert das neue Modell exzellente Ergebnisse. Dieser Umstand lässt die Community über die Gründe spekulieren. So wäre etwa denkbar, dass hier jene Filter, die die Erstellung pornografischer Bilder verhindern sollen, komplett aus dem Ruder laufen. Stability AI hatte in dieser Hinsicht zuletzt deutlich nachgeschärft, nachdem die eigene Bild-KI oft für entsprechende Aufgaben genutzt wurde, und es regelmäßig Kritik daran gab.

Stable Diffusion 3 Fail
Die Stable Diffusion 3 Medium Interpretation des Prompts "Girl lying on Grass".
HornyMetalBeing / Reddit

Alternative Theorie

Ob das wirklich so ist, bleibt hingegen unklar. Eine andere Option wäre, dass Stability AI versucht, das eigene Trainingsmaterial zu bereinigen. So ist bekannt, dass einige Bild-KIs mithilfe von Nacktbildern und auch solchen mit pornografischen Inhalten trainiert wurden, um die menschliche Anatomie zu lernen.

Hersteller Stability AI hat sich bislang nicht zum seltsamen Verhalten seiner Bild-KI geäußert. Das Stable-Diffusion-3-Medium-Modell wurde kostenlos veröffentlicht, es wurde in Kooperation mit Nvidia und AMD entwickelt, um deren Grafikkarten besonders gut zu nutzen. (red, 15.6.2024)