Stable Diffusion 3 Medium - pierwszy model obrazu z nowej serii już dostępny. Najbardziej zaawansowana wersja do tej pory
Firma Stability AI zdecydowanie przoduje na rynku w przypadku modeli AI, które są zdolne do generowania obrazów z opisów tekstowych. Modele obrazu tego przedsiębiorstwa z serii Stable Diffusion stają się coraz lepsze, a ogłoszona w lutym (2024) rodzina Stable Diffusion 3 miała się wyróżniać największymi możliwościami — zarówno pod kątem tworzenia realistycznych grafik, jak i dokładnego tekstu. Upłynęło już trochę czasu od prezentacji i pierwszy model właśnie stał się dostępny.
Stability AI udostępniło pierwszy model z serii Stable Diffusion 3. Możemy już skorzystać z najbardziej zaawansowanej edycji, jaka do tej pory ukazała się od tej firmy, a dokładniej z wariantu Medium.
Stable Diffusion 3 - oficjalna prezentacja nowego modelu AI. Jeszcze lepsza jakość obrazów i generowanie dokładnego tekstu
Rodzina modeli obrazu Stable Diffusion 3 wyróżnia się kilkoma cechami: poszczególne wersje są w stanie lepiej rozróżniać konkretne obiekty na generowanych obrazach, potrafią tworzyć bardziej realistyczną grafikę, a przy tym sam tekst powinien być dokładnie odwzorowany. Kiedy na początku lutego 2024 roku Stability AI zapowiedziało całą serię, mogliśmy się dowiedzieć, że znajdzie się w niej wiele wariantów, które będą się od siebie różnić możliwościami (konkretniej parametrami: od 800 milionów do 8 miliardów). Wprowadzony właśnie na rynek Stable Diffusion 3 Medium może się pochwalić 2 mld parametrów, więc do wspomnianej granicy jeszcze dość daleko. Niemniej jednak firma określiła omawianą edycję, jako najbardziej zaawansowany model, jaki się do tej pory pojawił.
Today, we’re thrilled to announce the open weights for Stable Diffusion 3 Medium, the latest and most advanced text-to-image AI model in our Stable Diffusion 3 series!
— Stability AI (@StabilityAI) June 12, 2024
This new release represents a major milestone in the evolution of generative AI and continues our commitment to… pic.twitter.com/oKLQ6SwQWc
Stability AI wprowadza nowy model po Stable Diffusion. Stable Cascade wymaga mniejszych zasobów i szybciej generuje obrazy
Tytułowy model obrazu ma się okazać bardzo dobrym wyborem dla obecnych układów graficznych przeznaczonych dla konsumentów (nawet dla mobilnych jednostek), gdyż nie potrzebuje do działania zbyt dużej ilości pamięci VRAM — choć nie przedstawiono dokładnych wymagań. Edycja ma zniwelować problem, jaki dotyczy generowania rąk i twarzy. Przy jej pomocy będziemy w stanie stworzyć bardziej realistyczne obrazy, na których wszystkie obiekty powinny ze sobą współgrać. We współpracy z NVIDIĄ powstał model, który jest zoptymalizowany dla układów graficznych z serii GeForce RTX (wsparcie dla TensorRT), dzięki czemu generowanie obrazów będzie się odbywać nawet 50% szybciej. AMD także dokonało pewnych optymalizacji dla swoich układów graficznych i platform APU. Pliki pobierzemy z tego adresu, jednak do komercyjnego wykorzystania tworzonych obrazów trzeba skontaktować się ze Stability AI.
Powiązane publikacje

Microsoft udostępnia funkcje Copilot+ AI z Windows 11 również na komputerach z AMD Ryzen AI 300 i Intel Core Ultra 200V
2
WattWise to narzędzie open-source do zarządzania wydajnością PC bazujące na cenach energii elektrycznej
17
CrystalMark Retro 2.0.0 to nowa wersja kultowego benchmarku z obsługą systemów od Microsoft Windows 95 do Windows 11
13
Google Gemini 2.5 Pro dostępny za darmo. Nowy model AI zaskakuje wynikami w testach i multimodalnością
24