Dwie największe firmy technologiczne świata — Apple i Google — znalazły się w centrum kontrowersji. Według najnowszych doniesień ich platformy nie tylko nadal hostują aplikacje typu „nudify”, ale w niektórych przypadkach wręcz kierują użytkowników właśnie do takich narzędzi.
To szczególnie problematyczne, biorąc pod uwagę, że tego typu aplikacje wykorzystują sztuczną inteligencję do tworzenia przerobionych, często niezgodnych z rzeczywistością obrazów ludzi.
Problem, który miał już zniknąć
Z raportów wynika, że w sklepach z aplikacjami obu firm nadal dostępne są dziesiątki programów wykorzystujących AI do generowania przerobionych wizerunków. Wcześniejsze analizy wskazywały nawet na ponad 100 takich aplikacji działających równolegle na iOS i Androidzie.
Co więcej, część z nich miała pojawiać się w sugestiach wyszukiwania lub reklamach, co oznacza, że użytkownicy mogą trafiać na nie nieświadomie — bez aktywnego ich poszukiwania.
To stawia pod znakiem zapytania skuteczność mechanizmów moderacji, które według deklaracji obu firm powinny blokować takie treści.
AI i granice prywatności
Aplikacje tego typu wpisują się w szerszy problem związany z rozwojem generatywnej sztucznej inteligencji. Dzięki coraz bardziej zaawansowanym modelom możliwe stało się tworzenie realistycznych, ale fałszywych obrazów — często bez zgody osób, których dotyczą.
Zjawisko to znane jest jako deepfake i od lat budzi kontrowersje, szczególnie w kontekście naruszeń prywatności i wykorzystywania wizerunku bez zgody.
Problem przestał być niszowy. Tego typu narzędzia są dziś łatwo dostępne, często działają automatycznie i nie wymagają specjalistycznej wiedzy.
Platformy pod presją
Sprawa nie jest nowa, ale skala problemu rośnie. Organizacje zajmujące się przejrzystością technologii od miesięcy wskazują, że mimo regulaminów zakazujących takich praktyk, aplikacje nadal pojawiają się w oficjalnych sklepach.
W przeszłości Apple i Google usuwały część narzędzi, jednak nowe pojawiają się równie szybko.
To prowadzi do sytuacji, w której walka z nimi przypomina grę w „kotka i myszkę” — platformy reagują, ale nie są w stanie całkowicie wyeliminować problemu.
Rosnące konsekwencje
Kontrowersje wokół takich aplikacji mają coraz szerszy wymiar. W wielu krajach pojawiają się propozycje regulacji, a nawet całkowitych zakazów dla narzędzi umożliwiających tworzenie tego typu treści.
Dla gigantów technologicznych oznacza to rosnącą presję — zarówno ze strony regulatorów, jak i opinii publicznej. Kluczowe pytanie brzmi dziś nie tylko „czy takie aplikacje powinny istnieć”, ale przede wszystkim „kto powinien za nie odpowiadać”.
Technologia wyprzedza kontrolę
Cała sytuacja pokazuje jedno: rozwój AI wyraźnie wyprzedza możliwości jego kontrolowania. Narzędzia, które jeszcze kilka lat temu były eksperymentem, dziś trafiają do masowego użytkownika — często bez odpowiednich zabezpieczeń.
A gdy algorytmy zaczynają nie tylko odpowiadać na pytania, ale też tworzyć treści na podstawie zdjęć czy danych, granica między technologią a realnym wpływem na ludzi staje się coraz cieńsza.



