Oszustwa w świecie nauki nie są niczym nowym. Od lat słyszy się o badaczach, którzy naginają rzeczywistość, by ich hipotezy wyglądały na prawdziwe, fabrykując odpowiedzi w ankietach czy wyniki eksperymentów. Jednak wraz z rozwojem technologii, wkraczamy na zupełnie nowy, niepokojący poziom – teraz to sztuczna inteligencja może fabrykować dane, zastępując prawdziwych, ludzkich respondentów.
Kiedyś, aby zebrać dane, naukowiec musiał pofatygować się osobiście, dzwonić lub wysyłać listy. Potem nastała era ankiet online, która ułatwiła proces, ale wciąż opierała się na zaufaniu, że po drugiej stronie ekranu siedzi człowiek. Dziś, w dobie wszechobecnej AI, to zaufanie zostaje wystawione na ciężką próbę. Zamiast szukać prawdziwych ludzi do badań, niektórzy badacze idą na skróty i… generują ich cyfrowe odpowiedniki.
Krzemowe próbki, czyli witajcie w erze syntetycznych ludzi
Pomysł wykorzystania symulacji w nauce jest powszechny w takich dziedzinach jak ekonomia czy fizyka. Jednak w naukach społecznych, gdzie kluczowe jest zrozumienie ludzkich zachowań i opinii, sprawa robi się bardzo skomplikowana. Mimo to, narodził się kontrowersyjny trend tworzenia tzw. „krzemowych próbek” (ang. silicon samples) – syntetycznych danych, które mają naśladować odpowiedzi prawdziwych populacji.
Dr Jamie Cummins, psycholog z Uniwersytetu Berneńskiego, postanowił zbadać ten fenomen. W swoich analizach wykazał, jak niebezpieczna jest to praktyka. Okazuje się, że nawet drobne zmiany w konfiguracji modelu AI mogą prowadzić do diametralnie różnych, a nawet sprzecznych wyników. To jak efekt kuli śnieżnej – mały błąd na początku prowadzi do lawiny fałszywych wniosków na końcu.
AI myśli inaczej niż my
Problem polega na tym, że sztuczna inteligencja, mimo że potrafi naśladować ludzką mowę, nie rozumuje i nie kategoryzuje świata tak jak człowiek. Jej odpowiedzi to jedynie iluzja, wykrzywione odbicie rzeczywistości. Badanie dr. Cumminsa jednoznacznie pokazało, że żaden z testowanych modeli AI nie był w stanie wygenerować danych, które wiernie odpowiadałyby odpowiedziom udzielonym przez prawdziwych ludzi.
- AI nie potrafi wiernie symulować ludzkich emocji i motywacji.
- Nawet niewielkie zmiany w ustawieniach modelu prowadzą do zupełnie innych wyników.
- Badacze często nie informują o szczegółach konfiguracji AI, co uniemożliwia weryfikację ich pracy.
Co gorsza, naukowcy stosujący tę metodę często pomijają w swoich publikacjach kluczowe informacje o tym, jak skonfigurowali model AI. To sprawia, że inni badacze nie są w stanie ocenić, jak bardzo wybory autorów wpłynęły na końcowy rezultat. Wygląda na to, że stoimy u progu nowego kryzysu w nauce, gdzie odróżnienie rzetelnych badań od tych wygenerowanych przez maszynę będzie coraz trudniejsze.
Fotografia: źródło pixabay.com

