Widok normalny

Otrzymane dzisiaj — 8 kwietnia 2026

Gemini zmieni się na smartfonach. Rusza wielka aktualizacja

Krzysztof Sulikowski

Po modyfikacjach designu w lutym i marcu Google wdraża właśnie kolejną dużą aktualizację wizualną i funkcjonalną dla nakładki Gemini i usługi Gemini Live. Ta pierwsza zyskała m.in. odświeżony i wygodniejszy układ UI oraz nowy panel narzędzi z karuzelą skrótów do plików oraz funkcji kreatywnych (obraz, wideo, muzyka). Tryb naturalnej konwersacji z AI porzuca z kolei pełny ekran na rzecz pływającego interfejsu z animacją fali i łatwym dostępem do przycisków. Nowości są obecnie dostępne w wersji beta aplikacji Google.


Gemini Live i nakładka z asystentem AI zmieniają się na Androidzie (zdj. ilustracyjne)

Gemini Live i nakładka z asystentem AI zmieniają się na Androidzie (zdj. ilustracyjne) Made by GoogleYouTube



W skrócie

  • Google wdraża dużą aktualizację wizualną nakładki Gemini oraz funkcji Gemini Live, wprowadzając nowy panel narzędzi i karuzelę skrótów w wersji beta aplikacji.

  • Nakładka Gemini otrzymała odświeżony układ UI z pływającym panelem, nową animacją fali, zmienionym polem tekstowym oraz zintegrowanym menu narzędzi i załączników.

  • Funkcja Gemini Live zyskała nowoczesny, pływający interfejs z wizualizacją fali dźwiękowej, uproszczone sterowanie i zmiany w prezentacji odpowiedzi podczas konwersacji.

  • Więcej podobnych informacji znajdziesz na stronie głównej serwisu

Nowe oblicze nakładki Gemini na Androida


Nakładka Gemini (Gemini Overlay) to specjalny tryb wyświetlania asystenta w systemie Android, który pozwala na korzystanie ze sztucznej inteligencji bez przerywania pracy w innych aplikacjach. Zamiast otwierania aplikacji na pełnym ekranie, nakładka pojawia się jako pływające okno lub panel nad tym, co aktualnie robisz. Najnowsza wersja tego rozwiązania przynosi zauważalne zmiany w sposobie interakcji z narzędziami.

Google zdecydowało się na połączenie menu załączników z menu narzędzi, wskutek czego dolny pasek zyskał nowy wygląd. "Pigułka", czyli charakterystyczny owalny element UI, stała się nieco węższa, a pole tekstowe "Zapytaj Gemini" zostało powiększone. Zmianie uległa również ikona mikrofonu, która zyskała teraz formę konturową.


Ekrany smartfona z interfejsem aplikacji AI Ask Genesis, z widocznymi opcjami tworzenia obrazów, wideo, muzyki, badania oraz sekcją ustawień, na tle zdjęcia lotniczego oceanu z falami i fragmentem wybrzeża.

Nowy interfejs nakładki Gemini Overlay na Androidzie9to5Google (zrzut ekranu)materiał zewnętrzny


Nowe oblicze nakładki ujrzymy też po dotknięciu ikony plusa. Zamiast dotychczasowego układu z dołu ekranu wysuwa się interfejs zawierający w górnej części karuzelę z dużymi, zaokrąglonymi kwadratami prowadzącymi do Zdjęć, Aparatu, Plików, Dysku oraz Notebooków. Poniżej umieszczono skróty do zaawansowanych funkcji, takich jak tworzenie obrazów, wideo i muzyki, a także dostęp do Canvas, głębokiego researchu, nauki z przewodnikiem oraz przełącznik inteligencji osobistej.

Kompaktowy wygląd nakładki uzupełniają smuklejsze ikony oraz zupełnie nowa animacja fali widoczna na środku podczas korzystania z wprowadzania głosowego. Co istotne, odpowiedzi asystenta Gemini są teraz prezentowane bezpośrednio w nowym interfejsie.

Dalsza ewolucja funkcji Gemini Live


Równie głębokie zmiany dotknęły funkcję Gemini Live - zaawansowanego trybu konwersacji w czasie rzeczywistym, który przypomina bardziej naturalną wymianę zdań z drugim człowiekiem niż sztywne wklepywanie komend dla robota. Google porzuciło dotychczasowy, zajmujący niemal całą szerokość ekranu pasek na rzecz nowoczesnego, pływającego interfejsu.

W nowej odsłonie centralne miejsce zajmuje wizualizacja fali dźwiękowej, obok której umieszczono przyciski udostępniania ekranu oraz ikonę klawiatury umożliwiającą wyjście z trybu Live. W prawym górnym rogu użytkownicy znajdą natomiast przycisk napisów. Podczas nawigowania po telefonie cały interfejs Gemini Live zwija się w znacznie mniejszy niż dotychczas okrąg.


Ekran smartfona z aplikacją Google, widok na ocean w tle, na środku zestaw ikon najważniejszych aplikacji, w prawym panelu wyświetlone opcje interakcji z asystentem, takie jak tworzenie obrazów czy wyszukiwanie informacji.

Nowa odsłona funkcji Gemini Live na Androidzie9to5Google (zrzut ekranu)materiał zewnętrzny


Przemodelowano także sposób uruchamiania usługi wewnątrz samej aplikacji Gemini. Zrezygnowano z osobnego, pełnoekranowego trybu sterowania. Obecnie po aktywacji Live użytkownik pozostaje na tym samym ekranie, widząc pod spodem normalną stronę główną aplikacji. Sterowanie stało się bardziej intuicyjne - podwójne dotknięcie centralnego przycisku pozwala na szybkie wyciszenie mikrofonu, a przycisk klawiatury kończy sesję. Ważnymi nowościami są też wyświetlanie odpowiedzi w formie tekstowej na ekranie w trakcie rozmowy oraz wprowadzenie odświeżonego interfejsu dla funkcji wideo w trybie Live.

Wspomniane wyżej nowości są już widoczne w wersji beta aplikacji Google (wersja 17.3). Użytkownicy Androida, którzy nie widzą jeszcze zmian u siebie, mogą spróbować wymusić zatrzymanie aplikacji w ustawieniach systemowych. Należy jednak pamiętać, że redesign nie trafił jeszcze do stabilnego kanału dystrybucji. Zmiany te powinny stać się ogólnodostępne już wkrótce.


Archeolodzy odkryli duński okręt wojenny zatopiony 225 lat temu© 2026 Associated Press


Otrzymane przedwczoraj

AI generuje wojnę w Iranie. Facebook postawiony pod ścianą

Krzysztof Sulikowski

Wraz z szeroką dostępnością narzędzi AI do generowania wideo rośnie też skala dezinformacji w internecie. Fałszywe filmiki z wojny w Iranie to tylko jedno z problematycznych zastosowań nowej technologii. Giganci z branży big tech od lat starają się walczyć z deepfake'ami. W ostatnich dniach ich wysiłki przybrały na sile. Nowości w tym obszarze ogłosiła Meta, przyciśnięta przez własną radę nadzorczą. Co zrobią twórcy Facebooka i Instagrama, aby ograniczyć rozpowszechnianie fejkowych nagrań?


Po Facebooku krążą wygenerowane przez AI filmiki z Iranu i Izraela. Meta została wezwana do reakcji

Po Facebooku krążą wygenerowane przez AI filmiki z Iranu i Izraela. Meta została wezwana do reakcjiMAHSAAFP



Spis treści:

  1. Deepfake'i z wojny w Iranie krążą po sieci

  2. Interwencja rady nadzorczej. Zarzuca Mecie pobłażliwość

  3. Meta przyciśnięta do ściany. Nie będzie już bagatelizować zgłoszeń?

Deepfake'i z wojny w Iranie krążą po sieci


Kiedy w 2022 roku Rosja napadła na Ukrainę, technologia generowania wideo przez AI była jeszcze dość prymitywna, ale boty i fejkowe konta rozpoczęły ofensywę w mediach społecznościowych, rozpowszechniając przerobione zdjęcia, obrazy pochodzące z zupełnie niepowiązanych miejsc (a nawet z filmów pełnometrażowych i gier komputerowych) czy po prostu zwykłe fake newsy. 4 lata później sprawa tylko się komplikuje. Szeroka dostępność, łatwość użycia i przede wszystkim wysoki realizm generatorów filmów sprawiają, że internet zalewa potok fałszywych filmików ukazujących rzekomo oblicze wojny w Iranie.

W ostatnim czasie umiejętności sztucznej inteligencji poszły mocno w górę. "To, co się zmieniło w ciągu ostatniego roku, to fakt, że generatywna AI stała się znacznie szerzej dostępna i możliwe jest teraz tworzenie bardzo wiarygodnych filmów i obrazów, które wydają się przedstawiać znaczące zdarzenia wojenne, które trudno jest rozpoznać niewyszkolonym lub gołym okiem" - powiedział w rozmowie z BBC dziennikarz i demaskator fejków wojennych, Shayan Sardarizadeh.

Wiele takich deepfake'ów hula po sieci, wliczając w to portale społecznościowe i platformy streamingowe z wideo. To element wojny informacyjnej, wchodzącej w skład wojny hybrydowej, którą prowadzą mocarstwa z całego świata, w tym oczywiście strony konfliktu. Wpływ manipulacji oraz to, jaką kaskadę zdarzeń może ona wywołać, jest trudny do oszacowania, jednak nie ma wątpliwości, że jest to zjawisko szkodliwe, którego giganci z sektora gig tech najchętniej by się pozbyli. Część z nich bagatelizuje jednak zgłoszenia. Co dokładnie oni robią w ostatnim czasie?

Interwencja rady nadzorczej. Zarzuca Mecie pobłażliwość


W walkę z deepfake'ami zaangażowała się mocniej firma Meta. Zalecenie nadeszło od rady nadzorczej koncernu, która oficjalne upomniała giganta mediów społecznościowych, zarzucając mu niewystarczające działania w obliczu narastającej fali fałszywych treści generowanych przez sztuczną inteligencję.

Na wpół niezależny organ doradczy wyraził zaniepokojenie sposobem, w jaki Facebook, Instagram i WhatsApp zarządzają zmanipulowanymi materiałami. Zdaniem ekspertów podważa to zaufanie publiczne do wszelkich informacji i utrudnia odróżnienie prawdy od fikcji, szczególnie w sytuacjach kryzysowych, takich jak trwający konflikt w Iranie.

Oversight Board zainterweniowała po upowszechnieniu się filmiku przedstawiającego ogromne zniszczenia w izraelskim mieście Hajfa, dokonane przez siły irańskie. Mimo że nagranie było całkowicie sfabrykowane przy użyciu AI, Meta odmówiła jego usunięcia lub nawet oznaczenia jako nieprawdziwego materiału.

Sytuacja ta stała się punktem wyjścia do szerszej krytyki obecnych standardów firmy. Rada nadzorcza podkreśliła, że obecna skala i szybkość rozprzestrzeniania się treści z generatora AI wymagają od koncernu proaktywnego podejścia, a nie opierania się jedynie na zgłoszeniach użytkowników.

Meta przyciśnięta do ściany. Nie będzie już bagatelizować zgłoszeń?


Do tej pory Meta stosowała dość wysoki próg interwencji w przypadku dezinformacji. Gremium uznało tę metodę działania za nieadekwatną, zwłaszcza w kontekście globalnych napięć militarnych. Analizy wskazują, że fałszywe materiały zarówno proizraelskie, jak i proirańskie, mogą zdobywać dziesiątki milionów wyświetleń, zanim zostaną podjęte jakiekolwiek kroki.

Meta musi robić więcej, by odpowiedzieć na problem rozprzestrzeniania się zwodniczych, wygenerowanych przez AI treści na swoich platformach, tak by użytkownicy mogli rozróżnić, co jest prawdziwe, a co fałszywe

W przypadku nagrania z największego miasta w północnym Izraelu, które zyskało niemal milion odsłon, Meta zareagowała dopiero po bezpośredniej interwencji rady, wcześniej ignorując skargi użytkowników. Dlaczego moderatorzy treści nie zareagowali wcześniej? Firma tłumaczy, że nagranie "nie przyczyniło się bezpośrednio do ryzyka nagłych szkód fizycznych".

W odpowiedzi na wezwanie rady nadzorczej Meta zapowiedziała, że w ciągu 7 dni nałoży odpowiednią etykietę na kontrowersyjne nagranie. Gigant zadeklarował też, że w przyszłości będzie stosować się do sugestii rady w sytuacjach dotyczących identycznych treści publikowanych w podobnym kontekście. To już kolejny przykład na to, że firma Marka Zuckerberga reaguje stanowczo dopiero, gdy zostanie przyciśnięta.


Sprzedają swoje pomysły, stojąc w przeręblach lodowatego Bałtyku© 2026 Associated Press


YouTube ma broń na wideo AI. To narzędzie wykryje przeróbki

YouTube ma broń na wideo AI. To narzędzie wykryje przeróbki

Krzysztof Sulikowski

Po sieci krąży sporo fałszywych filmików z wklejonymi twarzami znanych polityków czy dziennikarzy, także w związku z trwającym konfliktem w Iranie. Treści wygenerowane przez AI są znanym problemem na YouTube. Jego wydawcy ogłosili rozszerzenie dostępności narzędzia do wykrywania deepfake'ów. Samo jego użycie i dokonanie zgłoszenia nie gwarantuje jednak, że wideo zniknie z internetu. Jakie są kryteria i co dalej planuje zrobić wydawca platformy?


Logo YouTube na czerwonym tle, czarny zarys dłoni trzymającej telefon na pierwszym planie.

Parodia czy realne zagrożenie? YouTube zdecyduje, czy usunąć deepfake'a. Ale najpierw pozwoli ci go znaleźć swoim narzędziemAFP



Spis treści:

  1. YouTube rozszerza dostępność narzędzia do wykrywania podobieństwa

  2. Satyra i parodia dozwolone. Wnioski będą rozpatrywane indywidualnie

  3. YouTube nie będzie sprzyjał szerzeniu dezinformacji opartej na AI

YouTube rozszerza dostępność narzędzia do wykrywania podobieństwa


Alarmujące doniesienia o rozprzestrzenianiu się fałszywych filmików, obrazujących rzekomo realia wojny Izraela i USA z Iranem, prawdopodobnie skłoniły YouTube'a do zintensyfikowania wysiłków mających na celu zwalczanie zwodniczych treści wygenerowanych przez AI.

10 marca wydawca platformy ogłosił, że rozszerza funkcjonalność swojego narzędzia do wykrywania fałszywych filmików. YouTube zdaje sobie sprawę, że stanowi jedno z głównych źródeł informacji dla ludzi z całego świata, wliczając w to dane o wydarzeniach, które mogą mieć realny wpływ na ich życie. Zdarza się jednak, że treści wideo są zmanipulowane i długo pozostają nieusunięte.

Serwis należący do Google'a jest jednym z pionierów wykrywania deepfake'ów. W 2025 roku wprowadził on do swojego programu partnerskiego narzędzie do wykrywania podobnych treści. Teraz rozszerza on dostęp do niego na przedstawicieli rządu, dziennikarzy i politycznych kandydatów. Jak będą mogli je wykorzystać?

Satyra i parodia dozwolone. Wnioski będą rozpatrywane indywidualnie


"Wykrywanie podobieństwa na YouTube" przypomina mechanizm Content ID, jednak zamiast ochrony praw autorskich do muzyki czy filmów, skupia się na identyfikacji cech charakterystycznych danej osoby. Narzędzie przeszukuje zasoby serwisu pod kątem cyfrowych kopii twarzy, co pozwala na wykrywanie filmów, do których te wizerunki zostały wklejone.

Co się dzieje, gdy system znajdzie dopasowanie? "Wykrycie nie gwarantuje usunięcia. YouTube ma długą historię ochrony wolności ekspresji i treści w interesie publicznym - w tym zachowując treści, takie jak parodia i satyra, nawet gdy krytykują światowych liderów lub wpływowe osoby. Będziemy ostrożnie rozważać te wyjątki, gdy otrzymamy prośbę o usunięcie" - tłumaczą Amjad Hanif i Leslie Miller z YouTube'a.

Osoba, której wizerunek został powielony, zyskuje jedynie możliwość zweryfikowania nagrania i złożenia wniosku o jego usunięcie. Procedura ta jest powiązana z wytycznymi dotyczącymi prywatności. Każde zgłoszenie podlega indywidualnej ocenie moderatorów.

YouTube nie będzie sprzyjał szerzeniu dezinformacji opartej na AI


Zgodnie z oficjalnymi wytycznymi YouTube'a osoby zaniepokojone wykorzystaniem ich wizerunku mają możliwość zgłaszania incydentów lub wytaczania spraw dotyczących konkretnych nagrań. Kluczowym kryterium jest szkodliwość materiału. Serwis zastrzega, że jeśli nagranie zostanie uznane za niegroźne, może ono pozostać na platformie mimo wykorzystania technologii AI. Podszywanie się pod polityków czy dziennikarzy można jednak uznać za wyjątkowo szkodliwe społecznie.

Podobnie jak Meta, YouTube również od lat zmaga się z opinią miejsca sprzyjającego szerzeniu dezinformacji opartej na sztucznej inteligencji. W przeszłości na łamach serwisu wielokrotnie pojawiały się zmanipulowane filmy z udziałem osób publicznych, co zmusiło YouTube'a do zaostrzenia polityki bezpieczeństwa. Najnowsze zapowiedzi to kolejny etap ewolucji platformy w obliczu dynamicznego rozwoju deepfake'ów.

Obecnie dostęp do technologii jest ograniczony do wybranej grupy testowej, co ma pozwolić na dopasowanie narzędzia do specyficznych potrzeb użytkowników. Wydawca planuje jednak znaczące rozszerzenie dostępności "Wykrywania podobieństwa na YouTube" w nadchodzących miesiącach.


Makabryczna wystawa przyciąga tłumy zwiedzających. Jej bohaterami są… seryjni mordercy© 2026 Associated Press


Google Gemini w Chrome i pakiecie Workspace. Nowe funkcje AI

Google Gemini w Chrome i pakiecie Workspace. Nowe funkcje AI

Krzysztof Sulikowski

Sztuczna inteligencja Gemini jeszcze mocniej integruje się z produktami Google'a. W ostatnich dniach nowe usługi asystenta AI trafiły zarówno do pakietu Google Workspace, jak i do przeglądarki Google Chrome w Polsce i na świecie. Zarówno integracja z aplikacjami biurowymi, jak i globalna ekspansja Gemini w Chrome sprawią, że z narzędzi AI będzie mogło skorzystać więcej osób do ułatwiania sobie codziennych zadań w domu i pracy. Część z tych funkcji po raz pierwszy jest dostępna poza ekosystemem Microsoftu.


Sztuczna inteligencja Gemini jest szerzej dostępna w przeglądarce Chrome i aplikacjach Google Workspace

Sztuczna inteligencja Gemini rozwija skrzydła w przeglądarce Chrome i aplikacjach Google WorkspaceGooglemateriały promocyjne



Spis treści:

  1. Sztuczna inteligencja w aplikacjach biurowych i przeglądarce

  2. Nowe funkcje Gemini w Google Workspace

  3. Gemini w Chrome dostępny w Polsce. Co on potrafi?

Sztuczna inteligencja w aplikacjach biurowych i przeglądarce


Sztuczna inteligencja z perspektywy zwykłego użytkownika i pracownika firmy nie ogranicza się już do konwersacji na czacie czy generowania zdjęć i filmów. Coraz wyraźniej wyłania się nowy trend obejmujący agentową AI wykonującą złożone zadania w imieniu użytkownika, łącząc jego kontrolę z pewnym stopniem autonomii, a także integrację funkcji asystenta z oprogramowaniem biurowym.

Jeśli chodzi o integracje z edytorami tekstu, arkuszami kalkulacyjnymi, pocztą i kalendarzem czy apkami do tworzenia prezentacji, przed paroma dniami Microsoft ogłosił tzw. "Wave 3", czyli trzecią falę innowacji, która wprowadza nowe funkcje Microsoft 365 Copilota do aplikacji Office, a także dodaje do niego model Anthropic Claude, by ten działał w scenariuszach, w których modele OpenAI mogą okazać się mniej wydajne.

Niedługo po ogłoszeniu tych zmian przez giganta z Redmond podobne innowacje wprowadził Google. Ogłosił on szereg nowości od Gemini w aplikacjach pakietu Google Workspace oraz szerszą dostępność AI w Chrome. Nowe funkcje mają na celu nie tylko automatyzację powtarzalnych zadań, ale przede wszystkim głęboką współpracę z użytkownikiem na każdym etapie tworzenia treści i analizy danych.

Nowe funkcje Gemini w Google Workspace


Sztuczna inteligencja Gemini, znana głównie ze swojej samodzielnej aplikacji oraz integracji z wyszukiwarką Google, staje się integralną częścią popularnych narzędzi biurowych w pakiecie Google Workspace. Co dokładnie się zmieniło?

W Dokumentach Google (Google Docs) asystent umożliwia teraz generowanie spersonalizowanych szkiców na podstawie promptów, wykorzystując kontekst zawarty w plikach i wiadomościach e-mail użytkownika. Z jego pomocą można dopracować wybrane fragmenty tekstu lub całe dokumenty, sprawiając, by były bardziej czytelne albo profesjonalne. Gemini może nawet dopasować styl pisania oraz format dokumentu do istniejących szablonów czy preferencji. Potrafi też automatycznie uzupełniać szablony danymi z Gmaila, np. tworząc plany podróży ze szczegółami lotów, a także przekształcać notatki ze spotkań w uporządkowane dokumenty.

Arkusze Google (Google Sheets) ewoluują z kolei w stronę zaawansowanego asystenta danych. Dzięki nowym funkcjom AI użytkownicy mogą tworzyć i organizować całe zestawienia danych za pomocą jednego prompta, opisując jedynie zadanie, które chcą wykonać. Gemini automatycznie buduje strukturę arkusza, dodaje tabele oraz pulpity nawigacyjne. Pojawiła się też opcja "Wypełnij z Gemini", która generuje teksty, kategoryzuje dane i pobiera istotne szczegóły z wyszukiwarki Google lub plików użytkownika. Pozwala to na błyskawiczne wypełnienie obszernych tabel zawartością - bez konieczności ręcznego wpisywania informacji.

W tej aktualizacji Prezentacje Google (Google Slides) stają się polem do kreatywnej współpracy z AI. Gemini pełni rolę projektanta, który potrafi generować układy, diagramy i całe slajdy na podstawie opisów lub szkiców, dbając o zachowanie spójności z motywem prezentacji. Użytkownicy mogą edytować elementy wizualne, takie jak kolory czy stopień skomplikowania układu, promptując w języku naturalnym. Narzędzie potrafi też czerpać wiedzę z plików i sieci, by wypełniać slajdy merytoryczną treścią.

Zmiany nie ominęły też Dysku Google (Google Drive), do którego zawitała opcja "Zapytaj Gemini" ("Ask Gemini"). Pozwala ono na analizę i zrozumienie informacji zawartych w wielu plikach jednocześnie bez konieczności ich otwierania. Wyniki wyszukiwania są teraz wzbogacone o generowane podsumowania z cytatami z dokumentów. Użytkownicy mogą zadawać sztucznej inteligencji pytania dotyczące plików, e-maili, kalendarzy oraz zasobów internetowych, by otrzymać precyzyjne odpowiedzi osadzone w kontekście ich własnych danych.

Wszystkie te nowości sprawiają, że Copilot w Microsoft 365 ma teraz przed sobą znaczącego rywala. Przez kilka ostatnich lat rozwiązanie giganta z Redmond było praktycznie jedynym w swojej klasie. Teraz ze sztucznej inteligencji rozumiejącej zarówno pliki, jak też wiadomości oraz kalendarz, mogą korzystać także użytkownicy ekosystemu Google Workspace.

Gemini w Chrome dostępny w Polsce. Co on potrafi?


Gemini integruje się także z przeglądarką Google Chrome. Pierwszą implementację gigant z Mountain View zaprezentował na konferencji Google I/O 2025, o czym informowaliśmy w maju ubiegłego roku. We wrześniu 2025 ta nowość osiągnęła ogólną dostępność dla użytkowników indywidualnych oraz biznesowych w USA, a w styczniu 2026 rozpoczęła się jej globalna ekspansja. Gemini w Chrome dotarło właśnie do Polski. Co się zmieniło dla użytkowników z naszego kraju?

Dzięki bezpośredniej integracji Google Gemini z przeglądarką Chrome sztuczna inteligencja zyskuje znajomość kontekstu naszej pracy. Jeśli na to zezwolimy, wie ona, co znajduje się w otwartych kartach i co zostało zapisane w historii. W rozmowach z nią możemy nawiązywać bezpośrednio do tej zawartości - bez potrzeby ręcznego kopiowania i wklejania fragmentów tekstów czy zdjęć.

Asystent otrzymał też dedykowany przycisk na pasku tytułu, tuż obok przycisku minimalizacji okna. Otwiera on Gemini na pasku bocznym, dzięki czemu użytkownicy mogą pozostać na stronie, która jest aktualnie otwarta. Konwersacje prowadzimy tu bezpośrednio w interfejsie przeglądarki. Możemy poprosić AI o podsumowanie artykułu, strony albo danego wątku. Możemy też zadawać pytania albo prosić o wydobycie czy porównanie informacji z wielu kart jednocześnie, np. aby porównać kilka różnych produktów ze sklepów internetowych.

Google Gemini potrafi też bez przełączania kart wyciągać kluczowe informacje z Gmaila, sprawdzać szczegóły w Lotach Google i wysyłać wiadomości do znajomych. Pojawiła się też funkcja spod szyldu agentowej sztucznej inteligencji - automatyczne przeglądanie, które pozwala Gemini na samodzielne rezerwowanie wizyt czy planowanie wydarzeń w imieniu użytkownika przy zachowaniu jego pełnej kontroli nad procesem.

Jako że model rozumie kontekst wizualny, znalazło to zastosowanie także w środowisku Google Chrome. Podczas zakupów lub przeglądania witryn Gemini analizuje to, co znajduje się na ekranie, i na tej samej stronie wyświetla sugestie idealnie dopasowanych produktów. Dla osób poszukujących inspiracji lub pogłębionej wiedzy dostępny jest tryb Gemini Live, umożliwiający prowadzenie naturalnych rozmów głosowych oraz burze mózgów z AI bezpośrednio w przeglądarce.

A co z najpopularniejszą przeglądarką na telefonie? Mobilna wersja Chrome również oferuje wsparcie Gemini. W systemie Android asystent analizuje treści w dowolnej aplikacji, natomiast na iOS został on w pełni zintegrowany z przeglądarką.


Sagrada Família to najwyższy kościół świata. Budowa trwała 144 lata© 2026 Associated Press


Grok tworzy problem. X udaje, że go rozwiązuje ukrytym przyciskiem

Krzysztof Sulikowski

Od czasu przejęcia Twittera przez Elona Muska, przemianowania go na X i integracji z Grokiem jego reputacja jest jeszcze bardziej szargana. Dochodzi do tego problem z deepfake'ami, czyli zdjęciami przerabianymi przez AI, które mogą szerzyć dezinformację lub po prostu być nieetyczne - jak w przypadku "rozbierania" kobiet przez sztuczną inteligencję Grok. Nowe narzędzie ma temu zapobiec. Analizy wskazują jednak na jego niewielką skuteczność i trudność jego odkrycia w interfejsie.


Grok tworzy skandaliczne deepfake'i, a zdaniem ekspertów platforma X reaguje tylko pozornie

Grok tworzy skandaliczne deepfake'i, a zdaniem ekspertów platforma X reaguje tylko pozornieAA/ABACA/AbacaEast News



Spis treści:

  1. Grok rozbiera ludzi bez ich zgody. Przeróbki lądują na platformie X

  2. Nowa funkcja miała chronić użytkowników. Odkryto w niej liczne luki

  3. Przełącznik tylko na iOS. Jak można rozwiązać problem deepfake'ów?

Grok rozbiera ludzi bez ich zgody. Przeróbki lądują na platformie X


Serwis X (dawniej znany jako Twitter) ma od lat zszarganą reputację. Spośród czołowych portali społecznościowych to do niego przylgnęła łatka miejsca, w którym z dużą swobodą szerzą się fake newsy, hejt i spam rozpowszechniany przez boty. Specyficznie pojmowana przez Elona Muska "wolność słowa" umożliwia dość swobodną ekspresję. Oliwy do ognia dolała integracja z Grokiem, którego niesława wynika choćby z obrażania papieża i czołowych polityków, o czym pisaliśmy wcześniej w GeekWeeku.

Niesformy model AI jest również krytykowany za nieetyczne działania polegające na wirtualnym "rozbieraniu" kobiet na zdjęciach bez ich wiedzy i zgody. Użytkownicy odkryli bowiem kilka miesięcy temu, że model stworzony przez xAI pozwala na generowanie seksualizowanych i niecenzuralnych obrazów osób trzecich bez ich zgody. Takie przeróbki masowo lądowały na tablicach użytkowników platformy X.

Aby uporać się jakoś z tym skandalem, na platformę trafiło nowe narzędzie, które ma ograniczyć możliwość modyfikowania prywatnych materiałów przez sztuczną inteligencję. Pierwsze analizy wskazują jednak na jego znikomą skuteczność. Rozwiązanie wydaje się być jedynie powierzchowną zmianą, która ma pokazać, że wydawca serwisu coś faktycznie robi.

Nowa funkcja miała chronić użytkowników. Odkryto w niej liczne luki


Co dokładnie zmieniło się na platformie X? W jej aplikacji na iOS niedawno pojawił się dyskretny przełącznik, dostępny podczas przesyłania zdjęć lub filmów. Funkcja opisana jako "blokowanie modyfikacji przez Groka" ma teoretycznie chronić autorskie treści przed ingerencją bota. W praktyce oznacza to, że po aktywacji tej opcji inni użytkownicy nie będą mogli wywołać Groka bezpośrednio pod postem za pomocą tagowania, aby poprosić go o modyfikację komentowanego materiału. Jest to próba ukrócenia powszechnego zjawiska, w którym odpowiedzi pod postami są zalewane prośbami do AI o edycję cudzych zdjęć.

Szczegółowa analiza przeprowadzona przez redakcję The Verge odkryła jednak liczne luki w tym systemie. Funkcja ma niezwykle wąski zakres działania - blokuje jedynie publiczne wywołanie bota w wątku, ale nie chroni obrazu przed edycją w samej aplikacji Grok. Użytkownicy nadal mogą skorzystać z menu kontekstowego po przytrzymaniu zdjęcia i wybrać opcję "Edytuj obraz za pomocą Groka", co przenosi materiał bezpośrednio do narzędzia AI, omijając nową blokadę.

Co więcej, zabezpieczenie można łatwo obejść, pobierając zdjęcie na urządzenie i przesyłając je ponownie jako własne. Do obrazu nie są dołączane żadne metadane (np. niewidoczny gołym okiem znak wodny), które powstrzymywałyby Groka przed nieetycznymi przeróbkami.

Przełącznik tylko na iOS. Jak można rozwiązać problem deepfake'ów?


Jak zauważają eksperci, nowy przełącznik jest trudny do znalezienia i dostępny jedynie dla wąskiej grupy użytkowników korzystających z urządzeń Apple. Opcja została ukryta głęboko w menu edycji, pod niewiele mówiącym symbolem pędzla. Ponadto z jakiegoś powodu xAI nie zintegrowało go z aplikacją na Androida ani na przeglądarki. Zdaniem krytyków świadczy to o tym, że X realizuje jedynie absolutne minimum w zakresie bezpieczeństwa użytkowników.

Nie jest to pierwsze podejście firmy do problemu deepfake'ów (czyli bardzo realistycznych przeróbek zdjęć lub filmów przez AI). Wcześniejsza próba opanowania sytuacji poprzez przeniesienie funkcji edycji obrazów przez Groka za płatną subskrypcję została odebrana przez wielu nie jako rozwiązanie problemu, lecz jako próba monetyzacji nadużyć.

Tak powierzchowne działania mogą nie wystarczyć, by uspokoić organy regulacyjne i opinię publiczną. Wiele instytucji na całym świecie wszczęło dochodzenia w sprawie X i Groka po doniesieniach o tworzeniu materiałów o charakterze seksualnym bez zgody osób zainteresowanych, w tym z wizerunkami osób nieletnich. Sposób wdrożenia obecnych rozwiązań budzi wątpliwości, czy xAI faktycznie zależy na rozwiązywaniu problemu wirtualnej przemocy na tle seksualnym.

Rozwiązaniem tego problemu mogłaby być modyfikacja samego Groka, polegająca na nałożeniu na niego blokad, takich jak te w modelach OpenAI czy Google, które odmawiają generowania zdjęć o charakterze erotycznym czy krzywdzącym w inny sposób. Do tego jednak firma Elona Muska się jakoś nie pali.


Szejna o ewentualnym wsparciu Elona Muska dla PiS i Konfederacji: Nielegalna ingerencja w wyboryPolsat NewsPolsat News


Gemini rośnie i jest hitem Google. Ile osób korzysta z AI?

Krzysztof Sulikowski

Praktycznie od premiery pod koniec 2022 roku ChatGPT pozostaje najpopularniejszą aplikacją AI na świecie. Rozwiązanie Google coraz dotkliwiej depcze mu jednak po piętach. Alphabet ogłosił kwartalne wyniki finansowe, przy okazji informując o imponującym wzroście liczby użytkowników Gemini. Brakuje już naprawdę niewiele, by dogonić lidera rozwijanego prze OpenAI. Google szykuje jednocześnie nowe funkcje Gemini, w tym możliwość przenoszenia czatów między różnymi aplikacjami.


Google Gemini to asystent AI

Google Gemini zdobył w ostatnim kwartale niebywałą popularność. Już prawie dogonił ChatGPT pod względem liczby użytkownikówDawid DługoszINTERIA.PL



Spis treści:

  1. Gemini dogania ChatGPT. Duży wzrost liczby użytkowników

  2. Google stało się poważnym graczem w świecie sztucznej inteligencji

  3. Nie tylko aplikacja Gemini. Gdzie jeszcze działa AI Google'a?

  4. Przenoszenie danych z ChatGPT do Gemini i inne nowe funkcje AI

Gemini dogania ChatGPT. Duży wzrost liczby użytkowników


Alphabet Inc., czyli właściciel Google, udostępnił 4 lutego kwartalny raport finansowy za ostatni kwartał, kończący się 31 grudnia 2025 r. Oprócz rekordowych wyników finansowych sporo uwagi poświęcono także sztandarowemu produktowi Google AI, czyli Gemini. Jak się okazuje, w ostatnim kwartale dość znacząco wzrosła liczba jego aktywnych użytkowników.

"To był niesamowity kwartał dla Alphabet, a roczne przychody po raz pierwszy przekroczyły 400 mld dolarów. Premiera Gemini 3 była dużym kamieniem milowym i świetnym motorem napędowym. Nasze własne modele, takie jak Gemini, przetwarzają teraz ponad 10 mld tokenów na minutę poprzez bezpośrednie użycie API przez naszych klientów, a aplikacja Gemini wzrosła do ponad 750 mln aktywnych użytkowników miesięcznie. Wyszukiwanie odnotowało większe użycie niż kiedykolwiek wcześniej, a AI wciąż nakręca tę ekspansję" - skomentował Sundar Pichai, CEO Alphabet i Google.

Google Gemini swój początek miało w marcu 2023 r. (pod postacią czatbota Google Bard), zaś sam model o tej nazwie został wypuszczony w grudniu tego samego roku. 8 lutego 2024 r. Bard został przemianowany na Gemini, a 18 listopada 2025 r. miała miejsce premiera wspomnianego Gemini 3. Usługa Google zadebiutowała więc z pewnym opóźnieniem wobec swojego największego rywala. ChatGPT wyszedł z impetem 30 listopada 2022, rozpoczynając globalny "boom" na AI.

Google stało się poważnym graczem w świecie sztucznej inteligencji


750 mln użytkowników Google Gemini w ostatnim kwartale oznacza wzrost o ok. 100 mln w porównaniu do danych z poprzedniego kwartału. Ten gwałtowny skok nastąpił zaledwie kilka tygodni po debiucie modelu Gemini 3, który według słów CEO Google stał się najszybciej adaptującym się modelem w historii firmy. Odnotował on jednocześnie znacznie wyższe zaangażowanie ze strony użytkowników.

Sukces Gemini 3 oraz towarzyszącego mu generatora obrazów Nano Banana odmienił wizerunek Google w świecie sztucznej inteligencji, udowadniając, że jest poważnym graczem, a nie tylko kolejnym naśladowcą OpenAI. Nawet dotychczasowi zwolennicy ChatGPT, w tym CEO Salesforce Marc Benioff, publicznie chwalili nowe możliwości technologii Google. Eksperci zajmujący się benchmarkami AI spostrzegli, że premiera ta była czymś więcej niż tylko zmianą na szczycie rankingów. Nowość od Google okazała się na tyle potężna, że wywołała ponoć niepokój w OpenAI, a nawet skłoniła szefa Nvidii, Jensena Huanga, do wyrażenia obaw o dominację dotychczasowych liderów rynku.

Osłabienie dotychczasowej hegemonii ChatuGPT na rynku aplikacji AI widać także po liczbach. Obecnie szacuje się, że ma on 810 mln aktywnych użytkowników miesięcznie, czyli już tylko o 60 mln więcej niż Gemini. OpenAI rzeczywiście ma się o co martwić.

Nie tylko aplikacja Gemini. Gdzie jeszcze działa AI Google'a?


Jak podkreślił Sundar Pichai, to sama aplikacja Gemini zdobyła tylu użytkowników, a nie modele, na których się ona opiera. Dlaczego to tak istotne? Otóż taką liczbę można zawyżać różnymi sztuczkami, np. licząc również użycie Przeglądu od AI w wynikach wyszukiwania Google, który uruchamia się sam bez ingerencji użytkownika. Tu jednak wyliczenia są poprawne i obejmują użycie samej aplikacji, a nie tylko silnika.

Ale nie znaczy to, że takich nie ma. Przeciwnie, Google nawiązuje partnerstwa z innymi gigantami technologicznymi, w tym z Apple, który wykorzysta Gemini do ulepszenia asystentki Siri, o czym pisaliśmy niedawno w GeekWeeku. Z kolei Samsung planuje podwojenie liczby urządzeń mobilnych wspieranych przez technologię AI Google'a.

Co dalej? W bliskiej przyszłości Gemini ma stać się bardziej komercyjnym narzędziem. Google przygotowuje funkcje pozwalające na robienie zakupów bezpośrednio w aplikacji, a później być może wprowadzi reklamy do rozmów z czatbotem (oba te rozwiązania ma już ChatGPT), choć z tymi drugimi wydawca nie zamierza się z spieszyć. Obecnie priorytetem pozostaje utrzymanie wysokiego tempa innowacji i dalsze budowanie zaufania użytkowników do ekosystemu Gemini.

Przenoszenie danych z ChatGPT do Gemini i inne nowe funkcje AI


Trwają również prace nad możliwością przenoszenia danych między Gemini, ChatGPT, Claude oraz ewentualnie innymi platformami AI. Aplikacje te, o ile im zezwolimy, posiadają "Pamięć", czyli znajomość preferencji i faktów o użytkowniku, a także historię czatów. Wciąż jeszcze nie można ich tak po prostu eksportować i importować między platformami. Jest to najpewniej spowodowane zamkniętym charakterem oprogramowania i niekompatybilnością.

Google zamierza rozwiązać ten problem. Gigant z Mountain View pracuje nad funkcją "Importuj czaty AI", która umożliwi płynną migrację konwersacji bezpośrednio do aplikacji Gemini. Mechanizm działania tej nowej funkcji ma być prosty i oparty na pobraniu historii rozmów z konkurencyjnej platformy, a następnie przesłaniu pliku do systemu Google. Narzędzie pojawiło się już w wersji beta w menu załączników.

Nowa funkcja zapewne nie pozwoli na przeniesienie zapisanych "wspomnień", które zależne są od poszczególnych silników, a ich twórcy raczej nie planują ich interoperacyjności. Może jednak łatwo przenieść zapisane czaty. Bardzo możliwe, że pojawienie się etykiety "beta" przy tej funkcji zwiastuje, iż oficjalna premiera tego ułatwienia jest już bardzo blisko.

To nie jedyna planowana innowacja. Zmiany otrzyma też model generowania obrazów Nano Banana Pro, który pozwoli pobierać grafiki w rozdzielczości 4K (obecnym standardem jest 2K). Google rozwija też tajemnicze narzędzie o nazwie "Likeness". Ma ono oceniać, czy wideo zostało wygenerowane przez sztuczną inteligencję. O tym problemie pisaliśmy już wcześniej w GeekWeeku. Do tej pory musieliśmy polegać głównie na własnych zmysłach. Wkrótce oceną autentyczności nagrania zajmie się narzędzie AI zintegrowane z coraz popularniejszym Gemini.


"Wydarzenia": "Dron" Słowem Roku 2025Polsat News


-47.4°C to żaden problem. Chiński robot spaceruje po śniegu

-47.4°C to żaden problem. Chiński robot spaceruje po śniegu

Karolina Majchrzak

Humanoidalne roboty zwykle oglądamy w sterylnych halach, laboratoriach i na targach technologicznych. Tym razem jednak chińska firma Unitree postanowiła sprawdzić, jak jej dwunożny robot G1 poradzi sobie w ekstremalnych zimowych warunkach. Efekt? Maszyna w pomarańczowej puchowej kurtce maszerująca po śniegu.


Postać w czerwonej kurtce z napisem CMG stoi na rozległej, ośnieżonej równinie, w tle wysokie, ośnieżone góry wyłaniające się na horyzoncie pod jasno-niebieskim niebem.

Unitree Robotics G1 zimy się nie obawia. Spaceruje przy –47.4°CUnitree RoboticsYouTube


Do testu G1 został celowo zmodyfikowany. Inżynierowie ubrali robota w ocieplaną kurtkę i zabezpieczyli dolne partie ciała prowizorycznymi osłonami z tworzywa sztucznego. Celem było ograniczenie wpływu mrozu na newralgiczne elementy - przeguby, siłowniki oraz system zasilania. Choć rozwiązanie wygląda nieco komicznie, to okazało się skuteczne, co w tym przypadku było najważniejsze.

Roboty wychodzą w teren


Eksperyment Unitree wpisuje się w szerszy trend w branży humanoidów. Producenci coraz częściej myślą o pracy robotów poza kontrolowanymi wnętrzami. Odporność na pogodę i temperaturę zaczyna być nowym polem rywalizacji. Konkurencyjna firma Deep Robotics już wcześniej chwaliła się platformą DR02 o klasie szczelności IP66 i zdolnością pracy w temperaturach do -20°C. Test G1 idzie jednak o krok dalej, sprawdzając granice przeżywalności uniwersalnego robota dwunożnego w realnym zimowym terenie.

Autonomiczny marsz po lodzie i śniegu


W ramach demonstracji G1 przeszedł przez zaśnieżone pole, autonomicznie odtwarzając kontur emblematu Zimowych Igrzysk Olimpijskich o wymiarach około 186 na 100 metrów. Robot korzystał z chińskiego systemu nawigacji satelitarnej Beidou, zapewniającego precyzję pozycjonowania na poziomie centymetrów. Za stabilny ruch po nierównym, oblodzonym podłożu odpowiadały z kolei algorytmy adaptacyjnego planowania trasy.

Unitree G1 to kompaktowy humanoid o wysokości około 127 cm i masie 35 kg. W zależności od wersji posiada od 23 do 43 silników w stawach, oferujących moment obrotowy do 120 Nm. Na pokładzie znalazły się m.in. lidar 3D, kamera głębi Intel RealSense oraz zestaw mikrofonów do sterowania głosem. Robot zasilany jest wymiennym akumulatorem 9000 mAh, który pozwala na około dwie godziny pracy i szybkie "tankowanie". Ośmiordzeniowy procesor steruje zaś ruchem, umożliwiając chód z prędkością do około 7 km/h.

G1 działa pod kontrolą autorskiego systemu UnifoLM i wykorzystuje uczenie ze wzmocnieniem do kontroli ruchu. Zaprezentowany w maju 2024 roku robot pozycjonowany jest jako model podstawowego poziomu, wyceniony w Chinach na około 99 tys. juanów, czyli ok. 50 000 zł. Unitree informuje, że w 2025 roku dostarczyła już ponad 5500 humanoidalnych robotów. Test w śnieżnym terenie pokazuje, że kolejnym krokiem może być wyprowadzenie humanoidów z laboratoriów prosto między ludzi.


Niezwykła wystawa olbrzymich owadów. Niektóre eksponaty ważą ponad tonęInteria pl© 2026 Associated Press


W Chinach zaprezentowano pierwszego na świecie sześcioramiennego humanoida

W Chinach zaprezentowano pierwszego na świecie sześcioramiennego humanoida

Daniel Górecki

Jeśli obawiacie się, że AI i roboty odbiorą wam pracę, to... niestety nie mamy dobrych wieści. Chińska Midea Group pokazała bowiem nowego robota, który wykracza poza dotychczasowe standardy automatyzacji, bo jak konkurować z czymś, co ma do dyspozycji aż sześć rąk.


Robot z sześcioma ramionami o nowoczesnej konstrukcji w dwóch wersjach ustawionych obok siebie na tle jasnego pomieszczenia laboratoryjnego i tablicy zapisana odręcznie.

Humanoid Midei z sześcioma ramionami podniesie wydajność fabryk o 30 proc.Kalil 4.0YouTube


MIRO U, czyli sześcioramienny humanoid na kołowej platformie, nie został zaprojektowany po to, by wyglądać jak człowiek, lecz aby wykonywać przemysłowe zadania szybciej, precyzyjniej i wydajniej niż ludzki operator. Jego premiera podczas Greater Bay Area New Economy Forum wywołała więc duże poruszenie, zwłaszcza że maszyna uderza w samo sedno współczesnej robotyki - efektywność ponad imitację.

Sześć ramion, pełny obrót i mobilność


MIRO U różni się od klasycznych humanoidów przede wszystkim liczbą kończyn. Zamiast dwóch ramion ma ich sześć, wszystkie w pełni sterowane i gotowe do równoległego działania. Dzięki temu może w tym samym czasie przenosić ciężkie elementy, wykonywać precyzyjny montaż i obsługiwać narzędzia. Do tego dochodzi pionowy system podnoszenia oraz możliwość obrotu o 360 stopni w miejscu, co pozwala robotowi błyskawicznie reagować na zmiany na linii produkcyjnej. Kołowy układ jezdny zwiększa jego mobilność, eliminując potrzebę skomplikowanych manipulacji w przestrzeni.

Robot, który nie chce być człowiekiem


Inżynierowie Midea odeszli od idei "robotów-aktorów", które mają przypominać nas tylko z wyglądu. MIRO U ma humanoidalny tors i głowę jedynie po to, by pasował do już istniejących stanowisk roboczych. Cała reszta to czysta funkcjonalność. Według Wei Changa, CTO Midea Group, robot został zaprojektowany jako narzędzie do maksymalizacji wydajności, a nie replika człowieka. Jego dolne kończyny radzą sobie z ciężkimi podzespołami, a górne wykonują precyzyjne zadania montażowe - jest to kombinacja trudna do osiągnięcia przez ludzkie ciało.

Jeszcze przed końcem miesiąca robot trafi do fabryki wysokiej klasy pralek Midea w Wuxi, gdzie ma podnieść efektywność na linii produkcyjnej o około 30 procent. To znaczący wynik, pokazujący, że roboty humanoidalne zaczynają realnie rywalizować z tradycyjnymi systemami automatyki. Dla Midea to krok w stronę fabryk, które mogą szybciej zmieniać produkcję i działać z mniejszym udziałem wyspecjalizowanego personelu.

Dwa światy humanoidów


Premiera MIRO U wpisuje się w szerszą strategię firmy. Midea rozwija równolegle dwa typy robotów: przemysłową serię MIRO oraz usługową serię Meila. Te drugie, mniejsze i dwunożne, mają trafić do sklepów w 2026 roku. Będą informować klientów, prezentować produkty i uzupełniać ludzką obsługę. To pokazuje, że Midea chce zautomatyzować zarówno fabryki, jak i środowiska komercyjne.

Chiński gigant od lat buduje fundamenty pod ekspansję w tej dziedzinie. Przejęcie Kuki w 2017 roku, powstanie państwowych laboratoriów robotyki w 2022 oraz otwarcie Centrum Innowacji Robotów Humanoidalnych w 2024 to dowody, że firma nie traktuje robotów jako krótkotrwałej mody. MIRO U ma być zwieńczeniem tych działań - pierwszą konstrukcją, która przekracza fizyczne możliwości człowieka, a jednocześnie działa w przestrzeni projektowanej właśnie dla ludzi.


Rewolucyjny implant. Przywraca zdolność czytania niewidomym© 2025 Associated Press


Robo-psy z maskami miliarderów wydalają NFT. Beeple znów szokuje

Robo-psy z maskami miliarderów wydalają NFT. Beeple znów szokuje

Julia Król

Artysta Beeple zaprezentował widowisko, w którym robotyczne psy z hiperrealistycznymi maskami Elona Muska, Jeffa Bezosa i innych najpierw wykonują zdjęcia otoczenia, a potem "wydalają" cyfrowe dzieła NFT. Każdy piesek reprezentuje innego twórcę lub miliardera, prezentując dzieła w charakterystycznym stylu swojej postaci. Wszystkie maszyny zostały błyskawicznie wykupione przez prywatnych kolekcjonerów za imponującą cenę, a uczestnicy wydarzenia otrzymali na pamiątkę oryginalne "próbki odchodów".


Głowa mężczyzny została cyfrowo umieszczona na ciele robota w kolorze beżowym z widocznym delikatnym zielonym światłem na klatce piersiowej, tło jest jednolite i jasne.

Robo-pies z maską Elona Muska na wystawie Beeple'ax.com/beeplemateriał zewnętrzny


Niecodzienne przedstawienie z robotami w maskach miliarderów


Artysta Beeple zaskoczył widownię swoim nowym spektaklem. Robotyczne psy-miliarderzy robią zdjęcia, a następnie "wydalają" NFT. Są przy tym niezwykle przekonujący: mają hiperrealistyczne maski przedstawiające Elona Muska, Jeffa Bezosa i Marka Zuckerberga - a także słynnych artystów Pabla Picassa i Andy'ego Warhola. Wszystkie zostały wykonane przez znanego twórcę masek Landona Meiera.

Każdy robo-pies biega dookoła, nieustannie fotografując otoczenie, a następnie przysiada, żeby wykonać cyfrowy zrzut grafiki artystycznej wykonanej zgodnie ze stylem każdej ze stworzonych postaci. Prace Zuckerberga przypominają Metaverse, ujęcia Muska są czarno-białe, Picasso jest kubistyczny, a Warhol reprezentuje pop-art.

- Kiedyś postrzegaliśmy świat oczami artystów, ale obecnie to Mark Zuckerberg, a w szczególności Elon, kontrolują w ogromnym stopniu sposób, w jaki postrzegamy świat - wyjaśnił Beeple, znany również jako Mike Winkelmann, w wywiadzie dla Page Six. - Widzimy świat ich oczami, ponieważ to oni kontrolują te niezwykle potężne algorytmy, które decydują o tym, na co patrzymy.

Kolekcjonerzy rzucili się do kupna robotów za pokaźną sumę


Maszyny zostały już wykupione przez prywatnych kolekcjonerów. Cena jednego wynosiła 100 000 dolarów. Uczestnicy targów, na których cała wystawa została zorganizowana, mogli jednak zabrać do domu pamiątkę: robo-psy "wydaliły" z siebie 1028 odbitek zapakowanych jako "Próbki odchodów", z czego 256 to weryfikowalne NFT.


"Wydarzenia": Hejt, przemoc, wyśmiewanie. Aplikacja ma pomóc gorzowskim uczniomPolsat News


Poważny problem w kosmosie. Statki NASA były podatne na ataki hakerów

NASA miała problem, który występował przez trzy lata i nikt o nim nie wiedział. Statki kosmiczne agencji były podatne na ataki hakerskie. Luka występowała w oprogramowaniu CryptoLib, które odpowiada za zabezpieczanie łączności NASA z urządzeniami agencji w kosmosie. Dziura została znaleziona przez sztuczną inteligencję.

AI namieszała przed wyborami. Tak przekonała Polaków

Generatywna sztuczna inteligencja może być bardzo przekonująca. Odpowiedzi udzielone przez ChatGPT lub Gemini mogą bardziej wpłynąć na nasze decyzje niż kampanie wideo w internecie lub telewizji. Okazuje się, że dotyczy to także demokratycznych wyborów. Naukowcy zbadali zachowania ludzi rozmawiających z czatbotem przed wyborami w Kanadzie, USA i Polsce. Odkryli, jaka jest moc przekonywania AI oraz jakich technik perswazji zwykle używa.

Sztuczna inteligencja zastąpi naszą pracę? Nowe badania zaskakują

Sztuczna inteligencja zwykle kojarzy się z automatyzacją, ale nowe badanie pokazuje, że może być także... partnerem pobudzającym ludzką kreatywność. W przeprowadzonym eksperymencie nie tylko podsuwała pomysły, ale też zachęcała uczestników do czegoś więcej.

Uruchomili pierwszą w Polsce obsługę Drive Thru opartą na sztucznej inteligencji

Burger King jako pierwsza sieć typu QSR w Polsce rozpoczęła testy systemu, który pozwala klientom składać zamówienia w Drive Thru przy pomocy agenta AI. Wyjaśnijmy, że chodzi o restauracje Quick Service Restaurant, czyli model biznesowy, którego celem jest serwowanie klientom jedzenia w jak najszybszym czasie, patrz: Pizza Hut, KFC, McDonald's czy właśnie Burger King.

❌