PowerPoint KI
Bildprompts von Copilot
Die Bilder generiert Stable Diffusion
Stable Diffusion ist aktuell in den Schlagzeilen. Allerdings nicht wegen neuer Features des KI-Bildgenerators.
Emad Mostaque, der Gründer und CEO von Stability AI, hat seinen Rücktritt als CEO des Unternehmens angekündigt. Als offizielle Begründung wurde genannt, dass es dabei im Kern um die Fortsetzung der Open Source Policy des Unternehmens ginge. Stable Diffusion, das KI-Tool, mit dem sich dieser Beitrag beschäftigt, ist das Flaggschiff von Stability AI.
Hier ist der komplette PDF-Slider zu diesem Beitrag.
Ob es einen Zusammenhang gibt zu der Klage, die Getty Images Ende 2023 gegen Stable Diffusion wegen umfangreicher Verletzungen von Copyrights eingereicht hat, wurde nicht erwähnt.
In dieser Angelegenheit ist natürlich noch lange nichts entschieden. Und es ist völlig offen, ob sich daraus eventuell auch juristische Konsequenzen für die Verwendung von Material ergeben, das mit Stable Diffusion generiert wurde. Aber wer sich Gedanken macht über die Rechtschaffenheit der Datenbeschaffung für das Training der KI-Modelle, wird vielleicht zur Zeit um Stable Diffusion einen noch größeren Bogen machen wollen, als um andere Tools.
Man muss sich allerdings auch fragen, ob das ein großer Verlust ist. Ich habe meine ersten professionellen Erfahrungen mit Text-zu-Bild KI mit einem Photoshop Plugin für Stable Diffusion gesammelt, und danach mit dem hauseigenen Frontend DreamStudio. Damals war die Plattform mit ihrer Open Source-Basis einer der meistgeschätzten Anbieter. Im Bereich der API-Nutzung ist sie es bis heute geblieben.
Selbst für die aktuellen Photoshop-Versionen werkelt m.E. im Hintergrund immer noch Stable Diffusion. Adobe verweist zwar ausschließlich auf das eigene Firefly. Aber wenn man mal über In-/Outpainting hinaus (das im Photoshop überzeugende Ergebnisse liefert) ganze Bilder generiert, trifft man auf die gleichen Schwächen, die man in DreamStudio auch beim neuesten Modell SDXL v1.0 vorfindet.
Beispiele: Stable Diffusion hat auch im März 2024 noch regelmäßig Probleme mit der Zahl der Finger. Und nicht selten werden menschliche Gesichter generiert, die fehlerbehaftet und unangenehm aussehen. Selbst bei einzelnen Gesichtern sind oft Augen und Zähne vermurkst.
Andere Services, die auf API aufsetzen, finden aber die passende Plattform bei Stable Diffusion und haben offensichtlich keine Probleme.
Was spricht noch für Stable Diffusion?
> gute Bedienbarkeit mit vielen Funktionen über das Frontend DreamStudio
> auch In-/Outpainting und Editing
> relativ genaues Ansprechen auf kurze, direkte Prompts
> Styles können alternativ in einem Menü ausgewählt werden
> wahlweise Pay-per-Image Tarife (= man kauft Credits, kein Abo)
Aber – ganz ehrlich – das Erstellen der Bilder für unsere kleine PowerPoint-Folge hat nur wenig Spaß gemacht. Dafür waren die Ergebnisse zu durchwachsen.
Vielleicht geht es nur mir so? Viel Spaß – oder wenigstens neue Einblicke – beim DIY!