llm
- 1
- 2
- następna ›
Oficjalne badanie pokazuje prawdziwe zastosowania ChatGPT. Pisanie dominuje w pracy, programowanie to tylko 4,2 proc. użycia

Od premiery ChatGPT jest przedstawiany jako technologiczna rewolucja zmieniająca sposób, w jaki pracujemy, uczymy się i tworzymy. Wokół narzędzia OpenAI narosło wiele mitów, często sugerujących jego masowe i codzienne zastosowanie przez miliony ludzi. Intuicyjnie wydaje się, że chatbot jest już stałym elementem cyfrowego życia. Pierwsze tak szczegółowe badanie naukowe, oparte na ogromnym zbiorze realnych danych, pozwala jednak zweryfikować te wyobrażenia.
Naukowcy odkryli prosty sposób na zmuszenie AI do łamania zasad. Wystarczy jedna sztuczka psychologiczna i działa w 100 proc.

Sztuczna inteligencja i duże modele językowe stają się coraz bardziej zaawansowane. Ich twórcy implementują w nich zabezpieczenia, które mają uniemożliwić generowanie szkodliwych lub niebezpiecznych treści. Jednakże, wraz z rozwojem technologii, rozwijają się również metody obchodzenia tych barier. Najnowsze badania pokazują, że do złamania zabezpieczeń nie potrzeba już skomplikowanego kodu. Czasami wystarczy odpowiednie podejście psychologiczne.
OpenAI ujawnia sekrety. Pierwsze modele open-source od czasów GPT-2 można już pobrać za darmo i uruchomić na własnym PC

Najważniejszymi tematami dyskusji o AI jest starcie dwóch filozofii. Chodzi o modele zamknięte, rozwijane w tajemnicy przez korporacje, oraz otwarte, które każdy może pobrać i modyfikować. W tej debacie doszło do istotnego zwrotu. Jeden z największych graczy, kojarzony głównie z zamkniętym ekosystemem, wykonał ruch mogący znacząco wpłynąć na układ sił w całej branży i przyspieszyć rozwój technologii dostępnych dla szerokiego grona deweloperów oraz badaczy.
Watykan ostrzega przed AI. Stworzono jednak Magisterium AI - katolicki chatbot wykorzystający dokumenty Kościoła

Sztuczna inteligencja wkracza do świata religii poprzez specjalistyczne narzędzia dla wiernych. Podczas gdy Watykan publikuje ostrzeżenia przed zagrożeniami płynącymi z AI w oficjalnym dokumencie Antiqua et nova, amerykański startup rozwija katolicki chatbot trenowany wyłącznie na dokumentach Kościoła. Projekt wywołuje dyskusje o granicach technologii w sferze duchowej i roli człowieka jako moralnego podmiotu odpowiedzialnego za AI.
AMD Variable Graphics Memory w Ryzen AI Max+ pozwala przydzielać pamięć RAM jako VRAM zaawansowanym modelom AI

Lokalne przetwarzanie zadań związanych ze sztuczną inteligencją staje się nowym standardem w komputerach osobistych. Producenci podzespołów prześcigają się w dostarczaniu coraz większej mocy obliczeniowej bezpośrednio do urządzeń konsumenckich. Rozwój ten otwiera drogę do korzystania z zaawansowanych modeli językowych i generowania obrazów bez konieczności stałego połączenia z internetem i opłacania usług w chmurze.
Apple prowadzi negocjacje z OpenAI i Anthropic w sprawie integracji zaawansowanych LLM z asystentem Siri

Apple rozważa podobno ogromną zmianę w strategii rozwoju sztucznej inteligencji. Firma prowadzi zaawansowane rozmowy z konkurencją na tym polu, w celu poprawy jakości działania asystenta Siri. Współpraca tego typu może oznaczać potencjalnie przełomową decyzję, która może zakończyć wieloletnie inwestycje w wewnętrzne technologie Apple Intelligence. Czy Apple zachowa kontrolę nad istotnymi technologiami, czy wybierze szybsze i pewniejsze dostarczenie usług swoim klientom?
AMD ROCm 7 - premiera platformy obliczeniowej dla sztucznej inteligencji i rynku HPC, która przynosi znaczy wzrost wydajności

AMD ROCm (Radeon Open Compute) to otwartoźródłowa platforma obliczeń heterogenicznych, będąca odpowiedzią AMD na CUDA od NVIDIA. To zestaw narzędzi, bibliotek i sterowników umożliwiających uruchamianie kodu AI, obsługę popularnych frameworków uczenia maszynowego (takich jak PyTorch, TensorFlow czy ONNX), kompilację i optymalizację kodu obliczeniowego, a także dostęp do niskopoziomowych bibliotek sprzętowych.
AMD CDNA 4 - opis architektury dla akceleratorów do sztucznej inteligencji na przykładzie układów z serii Instinct MI350

AMD na konferencji prasowej zaprezentowało układy z serii Instinct MI350 oparte na architekturze CDNA 4, która została zaprojektowana z myślą o maksymalnym wykorzystaniu możliwości sztucznej inteligencji oraz zwiększeniu efektywności energetycznej. Poznaliśmy szczegóły dotyczące zmian w budowie tych akceleratorów oraz ich bezpośredniego wpływu na wydajność. Zapraszam zatem do obszernego opisu architektury CDNA 4 i jej szerokich możliwości.
Bielik AI z oficjalnym wsparciem NVIDIA. Polski model językowy wkracza do europejskiej ekstraklasy

Rozwój dużych modeli językowych nie jest już domeną wyłącznie globalnych gigantów technologicznych. Coraz więcej krajów i zespołów badawczych podejmuje próbę budowy rozwiązań dopasowanych do lokalnych potrzeb językowych i kulturowych. W tym kontekście szczególne znaczenie ma projekt Bielik, polski model językowy, który ma ambicję wzmocnić krajowy ekosystem AI i zapewnić większą suwerenność cyfrową w europejskim krajobrazie technologicznym.
Eksperci ostrzegają, że jedno polecenie może przejąć kontrolę nad AI. Policy Puppetry to słabość wszystkich głównych modeli LLM

W ostatnim czasie eksperci ds. bezpieczeństwa sztucznej inteligencji przedstawili wyniki badań, które rzucają nowe światło na sposób działania dużych modeli językowych. Okazuje się, że niektóre mechanizmy odpowiedzialne za kontrolowanie generowanych treści mogą być podatne na nieoczekiwane manipulacje. To odkrycie może mieć znaczenie dla przyszłości rozwoju rozwiązań bazujących na AI i ich wykorzystania w różnych dziedzinach.
Meta ogłosiła, że zacznie wykorzystywać dane użytkowników z Unii Europejskiej do trenowania modeli sztucznej inteligencji

Od dawna wiadomo, że w sieci nie jesteśmy anonimowi, a nasze dane są zbierane przez liczne podmioty, takie jak Google, Meta czy Microsoft. Choć w Europie chroni nas rozporządzenie RODO, w dobie dynamicznego rozwoju sztucznej inteligencji jego skuteczność coraz częściej bywa ograniczona. Tymczasem Meta, właściciel platform takich jak Facebook, Instagram i WhatsApp - oficjalnie ogłosiła, że rozpocznie agregację danych użytkowników w celu szkolenia modeli LLaMA.
Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI

Micron ogłasza współpracę z NVIDIA, dostarczając pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. HBM3E 12H 36GB została zoptymalizowana pod kątem NVIDIA GB300 Grace Blackwell, a HBM3E 8H 24GB będzie wspierać HGX B200 i GB200 NVL72. Dzięki 1,2 TB/s przepustowości nowe moduły zapewnią wyższą wydajność AI i HPC. Micron zapowiedział także LPDDR5X SOCAMM, nowy format pamięci serwerowej dla rozwiązań AI i edge computing.
SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.
Nowy Mac Studio już dostępny. Apple M4 Max lub Apple M3 Ultra, porty Thunderbolt 5 i nawet 512 GB RAM

Apple wprowadziło w ostatnim czasie wiele nowych produktów do swojej oferty i można je już nabyć w ramach przedsprzedaży. Należą do nich: MacBook Air (M4), iPad (A16), a także iPad Air (M3). Lista na tych urządzeniach się jednak nie kończy, gdyż ostatnią nowością jest nowy Mac Studio, którego Apple nazywa 'najpotężniejszym komputerem Mac, jaki kiedykolwiek stworzyli'. Produkt jest na tyle wszechstronny, że sprawdzi się do zadań kreatywnych, jak również do lokalnej obsługi AI.
Nadchodzą chatboty, które będą działać 10x szybciej od obecnych. Mercury to pierwsza seria dLLM, która to udowadnia

Niemal wszystkie dzisiejsze małe i duże modele językowe opierają się na tej samej metodzie działania - niemal, gdyż właśnie zadebiutowała nowość od Inception Labs, która funkcjonuje w inny, choć całkiem znany sposób, tyle że z innego segmentu tzw. sztucznej inteligencji. Mowa o rodzinie dyfuzyjnych dużych modeli językowych (dLLM) o nazwie Mercury. Zamiast generować tekst od lewej do prawej, dane wyjściowe są wydobywane z szumu. Taki proces ma wiele zalet.
OpenAI prezentuje GPT-4.5. Największy model AI już dostępny dla subskrybentów ChatGPT Pro. Większa wiedza i naturalne rozmowy

Zgodnie z wcześniejszymi zapowiedziami firma OpenAI zaprezentowała nowy duży model językowy o nazwie GPT-4.5, który jest już dostępny do przetestowania dla niektórych użytkowników usługi ChatGPT. Nowość nie jest taka jak poprzednicy. Model nie będzie mógł bowiem dłużej zastanowić się nad udzieleniem odpowiedzi, ale konwersacja z nim ma być naturalniejsza, a zakres wiedzy dużo większy. Ponadto oczekuje się, że nie będzie mieć tylu halucynacji, co jego bracia.
Claude 3.7 Sonnet oraz Claude Code - nowości od Anthropic dla programistów. Łatwiejsze pisanie i sprawdzanie kodu

Firma Anthropic zaprezentowała nowy, duży model językowy, który ma się okazać sporą pomocą dla programistów - choć nie tylko. Tytułowy Claude 3.7 Sonnet jest bowiem pierwszym hybrydowym modelem, który szybko wykonuje proste zadania, ale jest w stanie się także dłużej zastanowić, jeśli zajdzie taka potrzeba. Wraz z ogłoszeniem tej nowości przedstawiono także narzędzie Claude Code, które jest agentem kodowania. Pozwoli pisać i sprawdzać kod, ale możliwości są większe.
Mimo debiutu DeepSeek-R1 usługa ChatGPT zyskała na popularności. Nowe statystyki od OpenAI i zapowiedź GPT-5

Rok 2025 zaczął się od dość poważnego przetasowania na rynku tzw. sztucznej inteligencji. Na początku pojawił się duży model językowy DeepSeek-R1, który ma możliwości płatnych modeli, a jest dostępny za darmo. Nie tak dawno zadebiutował Grok 3 od xAI, który z kolei został wytrenowany na setkach tysięcy akceleratorów NVIDIA H100 i prezentuje sobą całkiem wysoki poziom. W nowej rzeczywistości musi się odnaleźć OpenAI, które właśnie ogłosiło nadchodzące zmiany.
Grok 3 zadebiutował. Nowy model AI od Elona Muska ma być lepszy od innych. Skorzystał z setek tysięcy akceleratorów NVIDIA H100

Najnowsza generacja dużych modeli językowych od firmy xAI, która zarządzana jest przez Elona Muska, doczekała się swojej oficjalnej premiery. Mowa o tytułowej rodzinie Grok 3, w skład której wchodzi kilka modeli. Wyróżnia się ona na tle innych rozwiązań głównie tym, że została wyszkolona na naprawdę ogromnej liczbie akceleratorów od przedsiębiorstwa NVIDIA. Możliwości mają być większe od obecnej konkurencji, takiej jak Gemini 2.0 Pro, DeepSeek-V3, a także GPT-4o.
Jak skorzystać z DeepSeek-R1 za darmo? Lokalna instalacja nowych modeli AI jest bardzo prosta. Zobacz krótki poradnik

Rodzina dużych modeli językowych DeepSeek-R1 wciąż wywołuje niemałe poruszenie na świecie. Nawet bezpośrednia konkurencja, a więc OpenAI, przyznała, że możliwości flagowego modelu z tej serii są "imponujące" - szczególnie jeśli zestawimy je z kosztami, jakie trzeba ponieść przez korzystanie z interfejsu API (kwota za milion wyjściowych tokenów to zaledwie ułamek tego, co trzeba zapłacić w przypadku modelu OpenAI o1). Firma DeepSeek udostępniła wszystkie modele z nowej linii zupełnie za darmo...
DeepSeek zmienia oblicze rynku AI przez serię DeepSeek-R1. NVIDIA traci miliardy dolarów, a pozycja OpenAI wydaje się zagrożona

Ostatnie dni w segmencie sztucznej inteligencji były bardzo burzliwe i mocno wpłynęły na pozycję rynkową takich gigantów technologicznych, jak NVIDIA. Wszystko przez serię dużych modeli językowych DeepSeek-R1, która została przedstawiona przez chińską firmę o niemal tej samej nazwie. Nowość wskazywała, że za niską kwotę można wyszkolić LLM, które będzie dorównywało OpenAI o1. Koszt skorzystania z niej przez interfejs API jest też o wiele niższy od konkurencyjnego modelu OpenAI.
NVIDIA prezentuje Project DIGITS. Komputer do obsługi AI ze 128 GB RAM, który łączy architekturę Grace i Blackwell

Wydawać by się mogło, że na targach CES 2025 NVIDIA zaprezentowała już wszystkie nowości. Tymczasem okazuje się, że oprócz nowych kart graficznych NVIDIA GeForce RTX z serii 50 i technik z nimi związanych (takich jak DLSS 4), już wkrótce na rynek konsumencki wkroczy mały komputer, który został przystosowany do obsługi sztucznej inteligencji, a konkretniej dużych modeli językowych. Za wydajność odpowiadać będzie specjalny SoC, przy którego tworzeniu uczestniczył MediaTek.
Moore Threads MTT X300 - chińska karta graficzna, którą stworzono do edycji wideo oraz oprogramowania CAD

Chińskie przedsiębiorstwo Moore Threads zaprezentowało nową kartę graficzną, która przeznaczona jest do zastosowań profesjonalnych. Mowa o obróbce wideo, projektowaniu (CAD), czy też modelowaniu informacji o budynkach (BIM). Firma zapewnia, że wydajność w zakresie przetwarzania grafiki 3D wzrosła kilkukrotnie w porównaniu z poprzednikiem - MTT S50. Nowość korzysta z architektury MUSA drugiej generacji i oferuje przyzwoitą pojemność pamięci VRAM.
Duży model językowy został z powodzeniem uruchomiony na systemie Windows 98 i wiekowym komputerze

Obliczenia powiązane ze sztuczną inteligencją zazwyczaj kojarzą się z koniecznością dysponowania olbrzymią mocą obliczeniową. W praktyce są już jednak dostępne na rynku modele językowe, które z powodzeniem działają na zwykłym sprzęcie. Rzadko jednak zdarza się, by ktoś próbował je uruchomić na wiekowym komputerze. Takiego przedsięwzięcia podjął się jeden z serwisów poświęconych AI. Rezultaty opublikowano na materiale wideo i blogu.
Sztuczna inteligencja uczy się korzystać z komputera. Anthropic zwiększa możliwości modelu Claude 3.5 Sonnet

Rozwój dużych modeli językowych (LLM) przybiera dziś stosunkowo nowy kierunek. Zakres zrozumienia różnych zagadnień przez popularne chatboty staje się coraz lepszy, ale nie jest idealny. Jednak już teraz firmy pracują nad tym, aby modele AI były w stanie same obsługiwać komputer. Jedną z nich jest Anthropic, która udoskonaliła swój model Claude 3.5 Sonnet, aby mógł sprostać temu zadaniu. Przy okazji ogłoszono, że wkrótce stanie się dostępny model Claude 3.5 Haiku.
I-XRAY - wystarczy na kogoś spojrzeć, żeby sporo się o nim dowiedzieć. Możliwości modeli AI i okularów z kamerami

Zapewne większość osób pogodziła się już z tym, że w Internecie prywatność praktycznie nie istnieje. Dane o nas zbierane są na każdym kroku, a najczęściej wykorzystywanym do tego "narzędziem" są nasze smartfony. Odkąd mamy dostęp do dużych modeli językowych (LLM) kwestia prywatności stoi pod jeszcze większym znakiem zapytania. Kiedy sztuczna inteligencja otrzyma oczy w postaci kamer w okularach, jest w stanie szybko podać informacje o ludziach, których widzi.
Deepin 23 - nowa wersja oryginalnej dystrybucji Linuksa debiutuje. Świetny wygląd, wsparcie dla AI i lepszy system aktualizacji

Doczekaliśmy się premiery kolejnej wersji systemu deepin, który jest jedną z dystrybucji Linuksa opartych na Debianie. Oferuje on nam jednak autorskie środowisko graficzne, które wygląda bardzo nowocześnie i przypomina nieco Windowsa 11. Nowość wprowadza lepszą obsługę sprzętową, dodaje bogatsze opcje personalizacji, a także oddaje do użytku nowy system instalacji i aktualizacji, dzięki któremu po awarii łatwo można wrócić do w pełni funkcjonalnego systemu.
Grok-2 - kolejna rodzina modeli AI od firmy xAI. W benchmarku MMLU wypada lepiej od Gemini 1.5 Pro

W świecie modeli językowych wciąż zachodzą spore postępy i kolejne odsłony oferują coraz lepsze możliwości, a przy tym nieco zmniejszają się ich halucynacje. Tym razem swoją premierę ma nowa generacja modeli AI Grok-2, za którą odpowiada firma xAI, a więc Elon Musk. Nowość jest dostępna we wczesnej wersji (beta) i to jedynie dla osób, które opłacają subskrypcję X Premium lub X Premium+. Natomiast już wkrótce z usługi będą mogły skorzystać także firmy.
GPT-4o mini - nowy model językowy od OpenAI. Sztuczna inteligencja staje się przystępniejsza cenowo

Firma OpenAI, która odpowiada za stworzenie najpopularniejszego chatbota do tej pory, czyli usługi ChatGPT, ogłosiła właśnie dostępność nowego modelu językowego. Tytułowy GPT-4o mini przewyższa swoimi możliwościami model GPT-3.5 Turbo, a przy tym wymaga od niego dużo mniej zasobów do działania. Celem OpenAI jest teraz zwiększanie możliwości modeli AI przy jednoczesnym obniżaniu związanych z nimi kosztów. Sztuczna inteligencja ma być łatwo dostępna dla każdego.
Najpierw Apple, a teraz Meta. Kolejna firma wycofuje usługi AI z krajów Unii Europejskiej

Akt o rynkach cyfrowych został wprowadzony przez Komisję Europejską pod koniec 2022 roku. Jego celem jest zapobieganie sytuacji, w której duża firma nadużywałaby swojej dominującej pozycji. Nowe regulacje są nieco kłopotliwe do spełnienia dla niektórych przedsiębiorstw. Nie tak dawno Apple wyraziło obawy, że ich pakiet Apple Intelligence może nie zawitać w 2024 roku do krajów UE właśnie z uwagi na DMA. Teraz podobny komunikat, jednak dotyczący modelu AI, wydała Meta.
Dzisiejsze chatboty są dalekie od prawdziwej sztucznej inteligencji. System od OpenAI umieścił je na pierwszym poziomie

Mimo że chatbot ChatGPT, który ukazał się w listopadzie 2022 roku, uważany jest za początek rewolucji związanej ze sztuczną inteligencją, to zarówno jemu, jak i pozostałym rozwiązaniom opierającym się na dużych modelach językowych (LLM) wciąż wiele brakuje, aby określać ich tym mianem. OpenAI stworzyło wewnętrzny system, który określa możliwości modeli AI poprzez konkretne poziomy. Do osiągnięcia prawdziwej sztucznej inteligencji (AGI) pozostała jeszcze daleka droga.
Grok 3 - kolejna generacja modelu AI może się okazać rewolucyjna. Elon Musk wykorzysta tysiące układów NVIDIA H100

Wyścig związany ze sztuczną inteligencją wciąż nabiera tempa. Kolejne firmy zakupują coraz więcej akceleratorów graficznych, które mają za zadanie wprowadzić na rynek modele AI o jeszcze większych możliwościach. Sporo wskazuje na to, że już wkrótce jednym z bardziej liczących się graczy na rynku zostanie startup xAI, za którym stoi Elon Musk. Wszystko przez nadchodzący model Grok 3, którego szkolenie odbędzie się na ogromnej ilości układów od NVIDII.
Gemma 2 - Google udostępnia zaawansowany otwarty model LLM, który stawia na efektywność działania

Na rynku sztucznej inteligencji trwa nieustannie wyścig zbrojeń. Dotyczy to zwłaszcza dużych modeli językowych, które z upływem czasu będą coraz bardziej zaawansowane. Jedną z firm, które prowadzą intensywne prace nad AI jest Google. Kilka miesięcy temu przedsiębiorstwo zaprezentowało model Gemma. Jest to stosunkowo lekkie rozwiązanie, które stawia na wydajność obliczeń i otwartość implementacji. Teraz zaprezentowano jego następcę, czyli Gemma 2.
Apple odrzuca partnerstwo z Metą. Llama nie zawita więc do ekosystemu - zamiast niego trafią tam modele od OpenAI i Google

Już wkrótce do ekosystemu firmy Apple zawitają usługi oparte na sztucznej inteligencji, które zbiorczo wejdą w skład pakietu Apple Intelligence. Przedsiębiorstwo pozwoli użytkownikom systemów iOS 18, iPadOS 18 oraz macOS Sequoia na skorzystanie nie tylko z ulepszonej asystentki Siri, ale również z modelu językowego od OpenAI, a mianowicie GPT-4o. Apple zintegruje z ekosystemem również inne modele AI, natomiast wśród nich nie znajdzie się Llama od Mety.
Stwórz własnego chatbota w 5 minut! Lokalna instalacja modeli językowych na Linuksie i Windowsie. Poradnik krok po kroku

Usługi związane ze sztuczną inteligencją cały czas się rozwijają, a prym wśród nich wiodą chatboty, które są oparte na dużych modelach językowych (LLM). Najbardziej znanym jest oczywiście ten od firmy OpenAI, czyli ChatGPT, gdyż to on zapoczątkował całą rewolucję. Jednak chatboty mają wspólną cechę, która wiele osób skłania do tego, aby z nich nie korzystać - jest nią fakt, że wszystkie dane są przetwarzane w chmurze, więc nasze konwersacje z modelami językowymi nie są prywatne. Ba,...
Project Astra - Google przedstawia asystenta AI przyszłości. Na dodatek zapomniane Google Glass mają szansę powrócić

Do tej pory asystenci głosowi nie byli specjalnie przydatni przez fakt, że nie oferowali zbyt dużej funkcjonalności. Owszem, Asystent Google pozwalał przy pomocy głosowych poleceń ustawić budzik, zadzwonić do wybranej osoby, wyszukać coś w internecie, czy opowiedzieć żart, ale na tych prostych czynnościach jego (i wielu innych rozwiązań) możliwości się kończyły. Powoli wkraczamy jednak w nową erę, w której asystenci AI będą mogli pomagać nam w każdej codziennej sprawie.
- 1
- 2
- następna ›
Test Cronos: The New Dawn PC. Jakość technik NVIDIA DLSS 4, AMD FSR 3.1 oraz Intel XeSS 2. Frame Generation i skalowanie wydajności
Procesor Intel Core i5-14600K BOX plus Battlefield 6 teraz w rewelacyjnie niskiej cenie. Za 649 zł niczego lepszego nie dostaniesz
Test wydajności Cronos: The New Dawn - Dead Space po polsku, czyli za komuny nie było lepiej! Świetna grafika i wysokie wymagania
Linux z rekordowym udziałem w Polsce i Europie. Alternatywa dla Windowsa nigdy nie była tak popularna
TOP 10 legendarnych gier, które (nadal) nie otrzymały remake'u lub godnego portu. Na te odświeżenia czekają zwłaszcza milenialsi