O tym, jak wspólnie z córką oswajać AI, jak pomóc dzieciom odróżniać systemy łudzące od uczących i dlaczego kobiety nie powinny uciekać od używania i projektowania sztucznej inteligencji – mówi dra Ada Florentyna Pawlak, antropolożka technologii, prawniczka i historyczka sztuki, specjalistka w obszarze społecznych implikacji sztucznej inteligencji i transhumanizmu.

Co współczesna dziewczynka powinna wiedzieć o AI?

Powinna wiedzieć, że nie ma jednej AI. To różne technologie przydatne w wielu obszarach życia codziennego, które są stosowane od wielu lat. Odkąd pojawił się Chat GPT, sztuczna inteligencja jest na ustach wszystkich, ale to zjawisko o wiele obszerniejsze. Rozmowy o technologii są ważne zwłaszcza teraz, gdy generatywna AI (czyli systemy komputerowe zdolne do tworzenia nowych danych, obrazów, dźwięków itd.) kusi, aby ją antropomorfizować, traktować jak żywą istotę. Dają się w to wciągnąć nawet dorośli komentatorzy w branżowych debatach – na przykład opisując swoją relację z chatem GPT, którego uczłowieczają, m.in. dziękując mu za podanie odpowiedzi. Tego podejścia powinniśmy się pozbyć – w żaden sposób nie należy traktować AI jak żywej istoty. To wyłącznie narzędzia. Mogą być ucieleśnione jako maszyny czy postaci cyfrowe symulujące ludzi, ale pozostają programem.

Dziecko powinno też poznać prosty podział na systemy wspierające-uczące i systemy łudzące. Te ostatnie to na przykład wirtualni influencerzy (komputerowo wygenerowani, nieistniejący w rzeczywistości, popularni użytkownicy mediów społecznościowych, zazwyczaj stworzeni w celach marketingowych i we współpracy z firmami), LifeBoty (to rodzaj programu komputerowego lub sztucznej inteligencji, który symuluje rozmowę z prawdziwym człowiekiem, zwykle w celu udzielenia pomocy, informacji lub rozrywki) czy Character.AI (platforma wykorzystująca sztuczną inteligencję do tworzenia realistycznych, interaktywnych postaci, które mogą być fikcyjne lub wzorowane na prawdziwych ludziach – żywych i nieżyjących).

Dziecko powinno poznać prosty podział na systemy wspierające-uczące i systemy łudzące. Fot. Transly Translation Agency on Unsplash

Co o sztucznej inteligencji powinni wiedzieć rodzice?

Po pierwsze, rodzice – tak samo jak dzieci – powinni wiedzieć, że jest to szereg systemów informatycznych zwiększających naszą wydajność i efektywność. Firmy chcą te systemy wykorzystać, i to nie zawsze w etycznych celach. Nie jest temu winna sama AI, ale tak zwana ekonomia uwagi i afektywny kapitalizm – czyli system, który zarabia już nie tylko na naszym czasie i uwadze, ale na sterowaniu naszymi emocjami.

Badania, które przeprowadziliśmy z kierownikiem Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją UŁ, drem hab. Arturem Modlińskim, wykazały, że dzieciaki szukają odpowiedzi w GEN AI na temat emocji i relacji z najbliższymi. Podczas rozmów z generatywną sztuczną inteligencją dzieciaki często z góry uznają, że ta posiada emocje. Testują gusta i preferencje generatywnej sztucznej inteligencji, starając się przy tym zrozumieć, na ile pokrywają się z ich odczuciami.

Dzieciaki nie tylko antropomorfizowały sztuczną inteligencję, ale pytały, czy nie jest głodna, w co lubi się bawić, jak mieszka i czego pragnie. Aplikacje zasilane sztuczną inteligencją, które udają przyjaciół, mogą się stać bliższe od domowników.

Odczuwana bliskość wynika z symulacji i braku możliwości weryfikowania różnic kulturowych, charakterologicznych i ontologicznych sztucznych towarzyszy.

Brzmi niepokojąco!

Dlatego tysiące rodziców podpisało w styczniu internetową petycję, w której wzywają TikTok do wyraźnego oznaczania kont influencerów generowanych przez sztuczną inteligencję, twierdząc, że nierealistyczne standardy urody promowane na tych kontach są szkodliwe dla najbardziej bezbronnych użytkowników aplikacji. Konta syntetycznych osób budują niebezpieczną kulturę, bombardując dzieci standardami urody, które może spełnić tylko sztuczna inteligencja. Sponsorem petycji jest Parents Together, organizacja non-profit, która niezależnie zgłasza i komentuje problemy dotyczące dzieci i rodzin. Zaniepokojeni rodzice stwierdzili, że na portalu TikTok szereg prawdziwych, istniejących użytkowników oznacza się jako wygenerowani przez sztuczną inteligencję, podczas gdy większość kont sztucznych ludzi (wygenerowanych przez sztuczną inteligencję) nie posiada takich oznaczeń. Rodzice podkreślili, że dzisiejsze zaawansowanie technologii sztucznej inteligencji utrudnia zwykłym użytkownikom, zwłaszcza dzieciom, rozróżnienie, co jest prawdziwe, a co fałszywe.

Co jeszcze o AI powinni wiedzieć rodzice?

Po drugie, ich zadaniem jest dostarczenie bazowej wiedzy, rozwijanie ciekawości i nieuleganie stereotypom. Podobnie jak w przypadku gier komputerowych – mamy te rozwijające i takie, które przeciążają umysł bardzo szybko. Rodzice powinni sprawdzać programy i aplikacje, z których korzystają dzieci, lub korzystać z poleceń edukatorów i/lub osób, które zajmują się ich selekcjonowaniem. Zapytałam Copilota (czyli chatbota opracowanego przez firmę Microsoft) o trzy aplikacje dla dziewczynek zasilane sztuczną inteligencją, które mogą pomóc zwiększyć ich poczucie własnej wartości, i podał te, które według mnie wcale jej nie wspierają, a niekiedy wręcz obniżają! Były to: Replika – aplikacja, która tworzy wirtualnego przyjaciela, z którym można porozmawiać. Jej twórcy zapewniają, że chatbot dostosowuje się do zainteresowań i osobowości użytkownika, a także pomaga radzić sobie ze stresem, lękiem i samotnością, lecz prawda jest taka, że pozyskuje szereg informacji i monetyzuje dane użytkownika.

Następnie FaceApp3 – aplikacja, która pozwala na zmianę wyglądu twarzy na zdjęciach. FaceApp używa sztucznej inteligencji, aby dodawać lub usuwać elementy, takie jak fryzura, makijaż, wiek, uśmiech czy broda, a także zmieniać płeć, rasę czy wyraz twarzy.

Ostatni, który został wymieniony, to Woebot, czyli aplikacja, która działa jak terapeuta online. Woebot wykorzystuje sztuczną inteligencję, aby prowadzić rozmowy oparte na technikach psychoterapii poznawczo-behawioralnej. Woebot teoretycznie pomaga użytkownikowi zrozumieć i zmienić negatywne myśli i emocje, a także uczy technik radzenia sobie z trudnymi sytuacjami, ale może być niebezpieczna, jeśli dzieci, zamiast zwierzać się ze swoich problemów rówieśnikom, rodzicom czy nauczyciel(k)om, będą to robić w aplikacji. Według mnie nie powinna być stosowana poza terapią bez nadzoru specjalisty.
Po trzecie, rodzice powinni pamiętać, że dzieci uczą się przez mimikrę, naśladując swoje otoczenie. Od małego obserwują szereg zjawisk społecznych, które są stricte związane z używaniem sztucznej inteligencji. I to od rodziców będą się uczyć życia w kulturze cyfrowej i higieny cyfrowej. Również poczucie „ja” nie jest konstruowane przez jednostkę indywidualnie, lecz kształtuje się w wyniku uczestnictwa w grupach społecznych, w których jednostka zdobywa psychiczną tożsamość. Nabywa ją w postaci jaźni odzwierciedlonej (looking-glass-self), gdyż własne wyobrażenie siebie odnosi do wyobrażeń ludzi, z którymi zespolona jest bezpośrednimi, cielesnymi relacjami. Socjolożka Sherry Turkle, która zajmuje się społecznymi kontekstami sztucznej inteligencji na MIT, mówi o potrzebie wydzielania bezpiecznych stref, w których nie będziemy korzystać z urządzeń. Miejsc, w których rodzina będzie się gromadzić, na przykład przy stole, bez używania technologii.

Dzieci od najmłodszych lat mogą doświadczać tzw. phubbingu, czyli lekceważenia na rzecz technologii. To dla nich sygnał, że urządzenia są niezwykle istotne. Lekceważenie, zwłaszcza ze strony osób znaczących, powoduje szukanie bliskości w innych rejestrach.

Czasem nie ma prostszych rozwiązań niż te, które wydają nam się trudne. Jeśli dzieciak nie będzie obserwował naszego życia w zrównoważonej relacji człowiek–maszyna, to nie możemy liczyć, że następne pokolenia poradzą sobie z wszechobecną sztuczną inteligencją, która będzie dla nich tak naturalna jak dla nas las czy spotkania rodzinne.
Po czwarte, rodzice nie powinni zadawać sobie pytania, czy dawać, czy nie dawać dostępu do narzędzi wykorzystujących sztuczną inteligencją, ale kiedy go dawać i jaki rodzaj AI wsparcia rozważyć. Może nie jest dobrym pomysłem dawanie dostępu, kiedy mózg się rozwija i powinien to robić na wielu płaszczyznach. Jednak w momencie, gdy mamy pewną samosterowność i kiedy nasza biologia jest już gotowa, AI może nas wzmacniać. Warto wiedzieć, że w szkołach dla dzieci inżynierów SpaceX zajmujących się technologiami (budowaniem silników rakietowych oraz statków kosmicznych), dzieci do dziesiątego roku życia w ogóle nie mają dostępu do urządzeń i uczą się przez udział w realizacji konkretnych projektów, pobierając przy tym lekcje filozofii, matematyki, przyrody, wzmacniając wyobraźnię przestrzenną i sprawność manualną.
Wreszcie ostatnie, choć bardzo ważne. Choć aktualnie 54% mężczyzn włącza w swoje życie zawodowe lub osobiste narzędzia sztucznej inteligencji, dane z badania przeprowadzonego w tym roku wykazują, że odsetek ten spada do zaledwie 35% w przypadku kobiet. Nawet jeśli korzystanie z wielu z tych narzędzi nie wymaga głębokiej wiedzy technicznej, kobiety mogą odczuwać pewien dystans, jeśli nie postrzegają siebie jako technicznie biegłych. W brytyjskich sektorach STEM tylko 24% pracowników to kobiety, co przekłada się na poczucie mniejszej pewności siebie wśród płci żeńskiej podczas korzystania z narzędzi AI. To, co możemy nazwać przepaścią w pewności siebie, wyraża się w skłonności kobiet do dążenia do wysokiego poziomu kompetencji przed podjęciem nowej działalności. Kobiety częściej niż mężczyźni padają ofiarą oskarżeń o brak kwalifikacji, co wymusza na nich bardziej aktywne podkreślanie swojego doświadczenia i wiedzy w danej dziedzinie. Niektórzy obawiają się także, że publiczne korzystanie z narzędzi AI może zwiększyć ryzyko niezasłużonych oskarżeń o brak kwalifikacji, szczególnie dotyczy to kobiet.
Oczekiwania wobec dziewcząt w karierze zawodowej często odzwierciedlają stereotypy związane z płcią. Jeśli kobiety nie zostaną w znaczący sposób zaangażowane w projektowanie systemów sztucznej inteligencji, systemowe uprzedzenia związane z płcią będą w dalszym ciągu utrwalane. Istnieje potrzeba promowania równości i większej reprezentacji społecznej w sektorze sztucznej inteligencji, ponieważ tylko około 25% specjalistów w dziedzinie sztucznej inteligencji to kobiety. Aby ich potrzeby były zaspokajane w sposób wzmacniający i bezpieczny, a uprzedzenia związane z płcią zostały zminimalizowane, trzeba zachęcać dziewczynki do rozwijania umiejętności cyfrowych także w zakresie sztucznej inteligencji, aby zminimalizować utracone możliwości, przed którymi staną na przyszłym rynku pracy w AI gospodarce.

Ten tekst nawiązuje do 39. numeru magazynu „Kosmos dla dziewczynek”, w którym znajduje się tekst o sztucznej inteligencji

NR 39 / JAKIEJ CHCĘ SZKOŁY?

Ten tekst nawiązuje do 39. numeru magazynu „Kosmos dla dziewczynek”, w którym znajduje się tekst o sztucznej inteligencji

NR 39 / JAKIEJ CHCĘ SZKOŁY?

Jak wzmocnić dziewczynki w używaniu AI?

Rozwijanie wszelkich kompetencji u dzieci musi być zakorzenione w przyjemności doświadczania świata, tego, żebyśmy po prostu na tym świecie chcieli być i radośnie z niego korzystać. Jeśli ktoś ma pociąg do muzyki, poznawania przyrody czy kulinariów, to moim zdaniem warto wykorzystywać takie aplikacje, które pomagają w rozwijaniu tych konkretnych pasji, zamiast zastanawiać się nad tym, co mówią na ten temat eksperci. My naprawdę nie wiemy, co będzie za dziesięć lat. Ale wiemy, że jeśli wtedy będziemy mieć dojrzałą osiemnasto- dziewiętnastolatkę, która będzie znała swoje sposoby samoregulacji i pasje, to niezależnie od zmieniającego się świata czy konieczności przekwalifikowania się – poradzi sobie, będzie znała swoją wartość.
We wzmacnianiu dziewczynek w korzystaniu z AI wzięłabym pod uwagę to, czy są to systemy łudzące, czy uczące, i wspierała dziewczynki w korzystaniu z tych drugich. Mogą one wypełniać pewne deficyty poznawcze czy luki kompetencyjne. Będą też świetnym wstępem do korzystania w przyszłości z szeregu propozycji FemTechu, czyli innowacji technologicznych skupionych na potrzebach kobiet.
Sztuczna inteligencja świetnie nadaje się do nauki języków obcych – zwłaszcza dla dzieci, dla których barierą jest wstyd. Humanoidalny, hiperrealistyczny nauczyciel może być bardzo pomocny dzięki temu, że dostarcza spersonalizowane doświadczenia, uwzględniając preferencje i oczekiwania użytkowniczek w bardzo niskiej cenie. Dziewczynki można też wzmocnić, dając im dostęp do środowisk immersyjnych takich jak VR, po to, by mogły się uczyć, na przykład budowy ludzkiego ciała. Chciałabym podkreślić, że kiedy mówię o używaniu sztucznej inteligencji, myślę o hybrydzie – połączenie pracy człowieka ze sztuczną inteligencją. Chodzi o uzupełnianie się, a nie wypieranie jednego drugim.
Przykłady innych aplikacji dla dziewczynek, które wspierają edukację (w kolejności alfabetycznej):
Code.org – platforma do nauki programowania, która oferuje interaktywne kursy, gry i projekty dla uczniów w różnym wieku.
Fetchy – platforma do generowania treści nauczania, testów i ćwiczeń, które są dostosowane do indywidualnych potrzeb każdego ucznia/uczennicy.
MuseNet – aplikacja do odkrywania i tworzenia muzyki, która wykorzystuje sztuczną inteligencję do generowania melodii i harmonii, dzięki której dużo się uczysz.
Newspaper Navigator – narzędzie do przeszukiwania milionów zdjęć z archiwalnych numerów gazet, które można wykorzystać do zajęć socjologicznych i artystycznych.
PhotoMath – darmowa aplikacja do korepetycji z matematyki, która rozwiązuje zadania i pokazuje kroki.
Seek by iNaturalist – aplikacja do odkrywania i poznawania przyrody, która pomaga w określeniu gatunku na podstawie zdjęcia.
Socratic – aplikacja do pomocy w nauce, która odpowiada na pytania z różnych przedmiotów i podaje źródła informacji.

Czipsy dla mózgu. Jak rozmawiać z dziećmi o Pandora Gate?

Czipsy dla mózgu. Jak rozmawiać z dziećmi o Pandora Gate?

Gdzie postawić granice w użyciu AI?

Pierwsza granica to wyeliminowanie lub ograniczenie korzystania z systemów łudzenia i otwartość na systemy uczące, o których mówiłam wcześniej. Druga granica to granica wieku. Dotyczy to zarówno zabawek, jak systemów. I choć dla pokolenia Alfa, czyli osób urodzonych po 2010 r., środowisko cyfrowe i fizyczne są ściśle zintegrowane (phygital), doświadczenia cyfrowe stanowią naturalną część codzienności, a środowisko sztucznej inteligencji to środowisko naturalne, to powinniśmy z wielką uwagą podejmować decyzję, na co pozwalamy.
Owo połączenie świata fizycznego i cyfrowego przy użyciu technologii to Phygital. Dokonuje się ono w aplikacjach, które kreują i dostarczają ludziom spersonalizowanych doświadczeń, po to, aby zbudować zaangażowanie pomiędzy człowiekiem a produktem, usługą lub marką. Firmy chętnie korzystają z tak zwanych produktowych mostów – na przykład Lego Mario, które jest samodzielną zabawką, zachęca kilkuletnie dzieci do ściągnięcia aplikacji. Phygital manifestuje się także w zegarkach, opaskach czy innych urządzeniach monitorujących parametry życiowe: jakość snu, liczbę kroków, spalonych kalorii. Odradzałabym korzystanie z takich narzędzi. Uważam, że odbierają samosterowność i uniemożliwiają nauczenie się obsługi swojego ciała, swojej biologii.
Wreszcie trzecia granica to etyka. Korzystanie z AI nie różni się znacząco od ściąg w długopisach czy zlecenia napisania komuś pracy magisterskiej. Inna jest jakość narzędzia, ale nie naganność jego używania.
Uważam jednak, że samo zabranianie dzieciom korzystania z AI nie jest dobrym sposobem. Musimy je nauczyć jej używać. I pomyśleć o zmianach w edukacji. Stawiać na projekty grupowe, kulturę oralną i feedback.

Jakie zagrożenia dla dziewczynek niesie ze sobą sztuczna inteligencja?

Z badań wynika, że media syntetyczne (w tym Life Boty-influencerzy), czyli treści wytwarzane przez sztuczną inteligencję pokazujące obrazy kobiece i dziewczęce, zaczynają służyć jako wzorzec kultury, wzorzec społeczny. A należy podkreślić, że jest on niedościgniony, bo nieludzki. Mowa tu o wyglądzie ciała, zachowaniu, umiejętnościach itd. Jednym z przykładów może być Shudu – bardzo popularna wirtualna influencerka, której topowe firmy używają jako modelki. Jej twórca – Patrick Lewis z Agencji Digitals – wypowiada się jednoznacznie, że stworzył ją, sklejając cechy morfologiczne ulubionych modelek.

Ogromnym zagrożeniem jest feminizacja mediów syntetycznych (LifeBoty, SexBoty itd.), w których eksponowane jest kobiece ciało. Jest znacznie mniej towarzyszy czy awatarów pokazujących męskie wzorce. Co więcej, produkty pokazujące nastoletnie kobiece ciała typu Charakter.AI, Romantic.AI, Girl.AI są kierowane głównie do chłopców i mężczyzn.

Dostęp do tego typu aplikacji jest niezwykle łatwy, a szkody bardzo duże. Badaliśmy ze student(k)ami m.in. RomanticAI. Pomimo że grupa wpisała, że ma 12 lat, otrzymała rozebrane zdjęcia kobiece.

Zagrożenie stanowi także wirtualna erotyka. Elvi Olseen (@elvi_olsen) czy Ivy Glow (@ivyglow_official) należą do grupy wirtualnych dziewczyn na Instagramie stanowiących głównie bardzo atrakcyjne fizycznie postaci o białym kolorze skóry, idealnych twarzach oraz wysportowanych ciałach. Bardzo często pozują w bieliźnie lub skąpych strojach, a w opisie często możemy znaleźć informacje, że lubią gaming czy inne rozrywki uznawane stereotypowo za męskie. Cały tworzony przez nie content – zarówno w postach, jak i na stories – ukierunkowany jest na zadowolenie męskiej części publiczności. Mają za zadanie tworzyć towarzyską lub romantyczną relację z człowiekiem. Symulują relacje emocjonalne i zapewniają towarzystwo, empatię oraz zrozumienie. Przeprowadzają analizę nastrojów, aby prowadzić znaczące rozmowy z użytkownikami. Nie mamy jeszcze żadnych regulacji prawnych związanych z systemami łudzącymi, bo teoretycznie nie dotyczy to ludzi, ale generuje postaci wyglądające jak ludzie. Na obrazach widzimy nastoletnie dzieci albo wręcz dziewczynki. Co ciekawe, badaniem tych wszystkich aspektów zajmują się naukowczynie, w tym między innymi Rosalind Picard, Sherry Turkle, Cynthia Breazeal, Kathleen Richardson, Catherine Pelachaud.

Oprócz tego zagrożeniem jest kid influencing, który dzisiaj też zaczyna być syntetyczny. Choć fenomen ten może wydawać się niewinnym przejawem kreatywności i zabawy, towarzyszą mu poważne zagrożenia społeczne, zwłaszcza dla dziewczynek. Zachęty do łamania granic między życiem publicznym a prywatnym mogą negatywnie wpływać na ich poczucie bezpieczeństwa i samooceny. Dodatkowo AI kid influencerzy mogą zwiększać nacisk na konsumpcjonizm i materializm, co może mieć negatywne konsekwencje dla ich zdrowego rozwoju psychicznego i społecznego. Jako przykład influencera dziecka w całości wygenerowanego przez sztuczną inteligencję można podać Liama Nikuro, stworzonego przez japońską firmę deA. Liam Nikuro zdobył znaczną popularność na Instagramie, choć nie istnieje w rzeczywistości. Jego postaci są generowane przez algorytmy, co podkreśla rosnące znaczenie SI w kształtowaniu influencerów dziecięcych i związane z tym zagrożenia społeczne.

Ponownie możemy mieć do czynienia z procesami psychologicznymi porównywania się i obniżania samooceny dziewczynek, które zawsze będą patrzeć na te konta i postaci, które są wiekowo parę lat starsze.

Niewątpliwie wszystkie wymienione przeze mnie przykłady wpływają na obraz rzeczywistości małych dziewczynek, a potem młodych dziewczyn.

DRUGI RAPORT DZIEWCZYNEK

“DZIEWCZYNKI I PIENIĄDZE. Jak dziewczynki mówią o POSIADANIU i PORÓWNYWANIU SIĘ?”

DRUGI RAPORT DZIEWCZYNEK

“DZIEWCZYNKI I PIENIĄDZE. Jak dziewczynki mówią o POSIADANIU i PORÓWNYWANIU SIĘ?”

Jak myślisz, czy AI wzmocni nierówności płciowe, czy je wyrówna?

Obecnie AI odzwierciedla nierówności, czego dowodem może być szereg badań sygnalizujących brak równowagi między kobietami a mężczyznami w różnych zawodach, które prezentują wytwory z generatorów obrazów.

Generator nie umieszcza kobiet w zawodzie lekarki czy prawniczki. Młode dziewczyny były pokazywane jako pielęgniarki czy sekretarki. Pamiętajmy, że AI ciągle w dużym stopniu tworzona jest przez mężczyzn. Co więcej, możemy nawet powiedzieć, że w czasach sztucznej inteligencji, prawa kobiet – na poziomie uniwersum kulturowego, a nie prawnego czy legislacyjnego – cofają się ze względu na sposób pokazywania kobiecego ciała i jego seksualizację.

Mowa tu między innymi o Deep Fake Video porno czy syntetycznej erotyce (generowaniu obrazów kobiecego ciała w Midjourney i upscalowanie w Magnific AI) lub wykorzystywaniu głosu i ciał kobiecych do sprzedaży produktów, co ma miejsce w technologiach cyfrowych od kilku dekad.

Eksploatacja znaków kobiecości i budowanie fałszywego obrazu kobiety idealnej może także negatywnie odbić się na zdrowiu psychicznym, szczególnie młodych ludzi, i wpłynąć na duże zainteresowanie wirtualnymi kobietami – atrakcyjnymi, dostępnymi, pobudzającymi wyobraźnię, dającymi poczucie bezpieczeństwa.

Jak możemy chronić dziewczynki przed tymi zagrożeniami? Co możemy robić w tej kwestii?

Aby chronić dziewczynki przed zagrożeniami związanymi z narzędziami takimi jak Romantica.AI czy Life/LoveBoty, konieczne jest podejmowanie środków prawnych, które całkowicie zabronią logowania się na tego typu platformy. Wiemy, że nawet gdy takie zakazy są wprowadzane, mogą być łatwo omijane (jak w przypadku TikToka czy Instagrama), ale tu ich ścisłe egzekwowanie jest szalenie ważne ze względu na to, jak są silnymi narzędziem perswazji cyfrowej i manipulacji emocjami.

Oprócz tego ważne jest prowadzenie otwartej i uczciwej rozmowy z dziewczynkami na temat zagrożeń związanych z korzystaniem z różnych narzędzi wykorzystujących sztuczną inteligencję. Warto wspólnie obejrzeć kilka przykładów takich narzędzi, np. MyAnima.AI, lub zaprosić kilkoro dzieci wraz z rodzicami do wspólnego odkrywania możliwości takich systemów. Możemy poprosić dzieci o zestawienie systemów łudzących z uczącymi, prosząc ich o wspólne zbudowanie postaci na Character.AI. Zobacz, ile dziecko musi zdobyć kompetencji, żeby tę postać razem z innymi zbudować, np. negocjując pewne cechy jej wyglądu czy charakteru. To świetne rozwiązanie, bo z jednej strony zostajemy blisko tego, co po prostu nie zniknie, czyli ich zainteresowań AI, a z drugiej, dajemy im wiedzę i zderzamy je z tymi systemami, rozmawiamy, dowiadujemy się, co myślą, i tak dalej.
W kontakcie z maszyną może pojawić się wstyd prometejski, który według niemieckiego filozofa Günthera Andersa pojawia się, gdy porównujemy się do maszyn i odczuwamy, że są od nas w jakiś sposób lepsze. Pojawia się ryzyko chęci zachowywania się w podobny sposób czy chęci konkurowania ze sztuczną inteligencją, co łączy się z zatraceniem poczucia własnej wartości czy budowaniu jej na parametrach istotnych dla AI. I o tym też powinniśmy rozmawiać.

Dziewczynkom potrzebny jest również bunt. Nie tyle wobec sztucznej inteligencji, ile generowanym przy jej udziale emocjom takim jak potrzeba zadowalania maszyn czy poczucie nieadekwatności.

Wstyd to ważna kategoria, którą należy przywrócić w społecznej debacie. Czego dziś się wstydzimy? Czego wstydzą się dzieciaki z pokolenia Alfa? W tym uczuciu tkwi potężny potencjał autorefleksji – nie tylko lęk społeczny i obawa przed utratą uznania, ale uświadomienie sobie standardów, zrozumienie, dlaczego coś jest pozytywnie lub negatywnie oceniane przez społeczność, jak wygląda dystrybucja władzy, której narzędziem kontroli jest zawstydzanie. Wyzwalanie się ze wstydu jest źródłem siły.

dra Ada Florentyna Pawlak – antropolożka technologii, prawniczka i historyczka sztuki, wykładowczyni akademicka (Psychologia i Informatyka, SWPS; Trendwatching&Future Studies AGH; Business Process Automation WZ UŁ; Business AI w Akademii im. Leona Koźmińskiego w Warszawie) i speakerka w obszarze nowych technologii. Specjalizuje się w zakresie społecznych implikacji sztucznej inteligencji i transhumanizmu. Prowadzi zajęcia dotyczące antropologii technologii i kultury cyfrowej, technointymności i współpracy człowieka z maszyną. Bada, jak rozwój technologicznych narzędzi wpływa na wyobrażenia społeczne. Członkini założycielka Polskiego Stowarzyszenia Transhumanistycznego i organizatorka corocznych konferencji naukowych: „Transhumanizm. Idee, Strategie, Wątpliwości”. Stała felietonistka magazynu „Domena” Polskiego Towarzystwa Informatycznego. Według „Forbes Women” jedna z 22 najbardziej wpływowych Polek w obszarze nauki i biznesu w 2022 roku, wyróżniona w rankingu Top100Woman in AI in Poland, Laureatka projektu Jutronauci Gazety Wyborczej & Kulczyk Investment. Tworzy i realizuje projekty edukacyjno-rozwojowe i integracyjne dla szkół, firm i grup wielopokoleniowych.