Uruchomienie bloga zostało sfinansowane przez społeczność ❤️
Mecenasem bloga jest Fundacja Zakłady Kórnickie,
wydawca portalu historycznego Hrabia Tytus

Humanistyczne prowokacje wobec AI

Humanistyczne prowokacje wobec AI

W opowieściach o sztucznej inteligencji, kultura i dziedzictwo to jednorodny, zamknięty, stabilny i darmowy zasób, czekający na przetworzenie tak jak ropa naftowa albo węgiel. Te błędne wizje łatwo kwestionować za pomocą zestawu prowokacji, inspirowanych krytyką jednego z wcześniejszych przełomów technologicznych, jakim miało być Big Data.

Provocations from the Humanities for Generative AI Research (DOI: 10.48550/arXiv.2502.19190, 2026) to dobre wprowadzenie do metod rozbijania technocentrycznych opowieści o przełomach społecznych, przemianach pracy twórczej czy automatyzacji badań humanistycznych. Autorzy i autorki omawianego poniżej artykułu to osoby doświadczone w badaniach humanistycznych z wykorzystaniem metod cyfrowych. Wspólnie chcą współtworzyć i wzmacniać

alternatywny ekosystem badań nad generatywną sztuczną inteligencją, aktywnie rozwijany na konferencji FAccT oraz pokrewnych wydarzeniach

Chociaż ich propozycja ma głęboki wymiar akademicki, o czym przekonamy się jeszcze za chwilę, jestem przekonany, że da się jej użyć bezpośrednio w dyskusjach o “sztucznej inteligencji”. Szczególnie wobec tych głosów, które niebezpiecznie, bo z ogromną ignorancją, podejmują tematy związane z kulturą czy jednoznacznie interpretują funkcjonowanie społeczeństwa. Daleki jestem od zachwytu nad interpretacjami w stylu co Lacan napisał o Marksie albo wymyślania kolejnego zwrotu w badaniach, przyjmuję jednak, że dzielenie włosa na czworo albo wymyślanie nowych pojęć może być zasadne, jeśli tylko nie służy retorycznemu pozycjonowaniu się jako ekspert albo głęboki wrażliwiec, a pozwala skuteczniej opisać istotne problemy.

Sześć pytań o Big Data

metody wspólne dla nauk humanistycznych obejmują interpretację, kontekstualizację i teoretyzowanie

piszą autorzy i autorki tekstu, co przypomina nam, że w humanistyce raczej nie da się w inny sposób przyjmować technologii. Nie ma dla niej neutralnych narzędzi, prostych danych, jednoznacznych interpretacji. Problem w tym, że przemysł IT, w którym wytwarzana jest większość narzędzi, jakie dziś chcielibyśmy użyć nie tylko w badaniach, ale nawet w pisaniu o badaniach czy upowszechnianiu ich wyników, doskonale radzi sobie, nie wypełniając żadnego z tych trzech obowiązków. Tego typu wątki znajdziemy jeszcze w oryginalnych opracowaniach naukowych, opisujących koncepcję i konstrukcję oprogramowania, użyte dane treningowe czy ograniczenia metod, zabraknie ich jednak w szerokiej marketingowo-szkoleniowej narracji wokół tych narzędzi. W taki właśnie sposób rozwijać się mogą interpretacje o rychłym zastępowaniu określonych zawodów przez “AI” czy nawet inspirowanej technicznie przebudowie kultury i społeczeństwa. Perspektywa humanistyczna pozwala zejść na ziemię.

Oczywiście nie jest też tak, że taka humanistyczna interwencja mogła mieć miejsce dopiero wobec “rewolucji AI”. Ważnym wątkiem omawianego tekstu jest humanistyczna krytyka Big Data. W 2012 roku danah boyd i Kate Crawford opublikowały artykuł Critical Questions for Big Data (DOI: 10.1080/1369118X.2012.678878), w którym analizowały Big Data jako socjo-kulturowe zjawisko, w którym da się wyróżnić warstwy mitologii, specyficzne epistemologie (“na czym ma polegać wiedza”?), zagrożenia wynikające z absolutyzowania danych ilościowych czy nawet ślad tęsknoty badaczy i badaczek humanistycznych za pełną obiektywizacją ich badań:

Big Data oferuje dyscyplinom humanistycznym nowe sposoby na uzyskanie statusu nauki ilościowej i obiektywne metody.

Ostatecznie, Critical Questions for Big Data to sześć głównych wątków:

  1. Big Data zmienia definicję wiedzy
  2. Twierdzenia o obiektywności i dokładności danych są mylące
  3. Większe zbiory danych nie zawsze oznaczają lepsze dane
  4. Wyjęte z kontekstu, dane Big Data tracą swoje znaczenie
  5. Fakt, że dane są dostępne, nie czyni ich etycznymi
  6. Ograniczony dostęp do Big Data tworzy nowe cyfrowe podziały

Jest w pełni zrozumiałe, że 2026 rok to już najwyższa pora na zadanie podobnych pytań wobec “sztucznej inteligencji”.

Archiwa wzorem dla branży AI

Autorzy i autorki badania określają te pytania mianem “prowokacji” (tak stoi w tytule artykułu), jednak zależy im, żeby odpowiednio zrozumieć to pojęcie:

rozumiemy nasze prowokacje jako mosty, a nie mury. Wierzymy, że tak samo jak potrzebujemy kolektywnego i świadomego zrozumienia tego, co jest możliwe (a także, co istotne, niemożliwe) w kontekście generatywnej AI, tak samo potrzebujemy bardziej świadomego zrozumienia kultur, które umożliwiły jej rozwój, grup, które mogą skorzystać z jej przyszłych zastosowań, oraz tych, które obecnie ponoszą koszty jej rozwoju.

Celem zebranych pytań/prowokacji nie jest zatem odrzucenie AI, zakwestionowanie jej możliwości czy dyskredytacja jej twórców i pasjonatów. Że stawianie takich - ostatecznie pozytywnych - propozycji ma sens, dowodzi sukces artykułu Lessons from Archives: Strategies for Collecting Sociocultural Data in Machine Learning (DOI: 10.1145/3351095.3372829, 2019) Euny Seo Jo i Timnity Gebru. Autorkom udało się skutecznie umieścić w centrum dyskusji branżowej o danych treningowych fundamentalne wątki wynikające wprost z perspektyw nauk humanistycznych i społecznych - sam tekst ma w Google Scholar ponad 500 cytowań. Inspiracją dla branży AI mają być… klasyczne archiwa:

Archiwa są najdłużej funkcjonującym wspólnym wysiłkiem gromadzenia informacji o człowieku, a badacze archiwalni opracowali już język i procedury, które pozwalają rozwiązywać i omawiać wyzwania związane z gromadzeniem danych, takie jak zgoda, władza, inkluzywność, przejrzystość oraz etyka i prywatność.

Sześć humanistycznych prowokacji wobec AI

Wiemy już, że “prowokacje” autorów i autorek omawianego opracowania mają nie tyle zdyskredytować przemysł AI, co raczej dać inspirację dla rozwiązania niektórych problemów wynikających ze stosowania wytworzonych przez niego metod i narzędzi. Pokazują przy tym też potencjał humanistyki jako propozycji mogącej mieć bezpośrednie przełożenie na rzeczywistość, nawet techniczną.

Zaproponowane “prowokacje” wobec systemów sztucznej inteligencji podsumowano w tabelce, którą rozwinąłem, dodając kolumnę z własnym komentarzem:

Słowo kluczowe Prowokacja Sugerowane dalsze kroki Komentarz [MW]
Język Modele tworzą słowa, ale to ludzie tworzą znaczenie Zapoznaj się z teoriami języka i znaczenia wykraczającymi poza ramy lingwistyczne, które kształtują metody NLP. Przykładowo, Barthes proponuje szukanie znaczenia w tekście nie u autora, ale u czytelnika. W jaki sposób może to wpływać na interpretację wyników maszynowych analiz NLP? Jaka jest relacja między metodami pracy z językiem a dostępną teorią języka?
Kultura AI wymaga zrozumienia kultury Wyjaśnij, której definicji kultury używasz: "kultury" jako grupy ludzi, czy jako obiektów stworzonych przez określoną grupę ludzi. Wytwory AI dość słabo sobie radzą z różnorodnością kulturową, reprodukując schematy i uprzedzenia, wyrównując zróżnicowanie kulturowe do pewnej średniej. Tymczasem dane treningowe można przygotowywać z intencją zachowania tej różnorodności (zob. Common Corpus).
Archiwum AI nigdy nie będzie "reprezentatywna" Porzuć pogoń za "reprezentatywnym" zbiorem danych; zamiast tego uznaj, że w zbiorach danych i modelach zawsze zakodowane są określone perspektywy. To cały szereg problemów, z którymi zmagają się już archiwa: jak przetwarzać i pokazywać zbiory i metadane będące efektem stronniczego czy nienawistnego podejścia do określonej grupy ludzi? Stronniczość (bias) nie musi być efektem błędów w danych, ale wynikać z ich natury, stąd radzenie sobie ze stronniczością niekoniecznie polegać powinno na usuwaniu problematycznych danych.
Model Większe modele nie zawsze są lepszymi modelami Zacznij od pytania, czy mniejszy model nie byłby lepszy dla danego zadania, a jeśli tak, zaangażuj ekspertów dziedzinowych. Przykład z artykułu: Giselle Gonzalez Garcia i Christian Weilbach wykorzystali swoje doświadczenia w dziedzinie historii i informatyki, aby dostosować model LLM do badań nad irlandzką migracją (DOI: 10.48550/arXiv.2310.10808, 2023).
Dane Nie wszystkie dane treningowe są równoważne Oprócz cech technicznych i "wpływu" na wydajność modelu, weź pod uwagę konceptualną i kulturową charakterystykę danych. Przykład z artykułu: w zbiorach danych treningowych o książkach uwzględnić można różnorodne metadane, nie tylko te oczywiste (tytuł, data wydania, gatunek, pochodzenie czy autor), ale też obejmujące informacje biograficzne o twórcy, wybranych przestrzeniach geograficznych, demografii itp. - jak robi się to dla zbiorów HathiTrust Digital Library (DOI: 10.22148/001c.13147, 2020).
Dostęp Otwartość nie jest prostym rozwiązaniem Zapytaj, czyją wiedzę próbują reprezentować dane, czy masz upoważnienie do jej wykorzystania i czy nie przynosi to szkody. Przykład z artykułu: Dane treningowe zebrane zgodnie z prawem mogą wykluczać wiele chronionych zasobów, których twórcy albo wydawcy nie zgadzają się na ich wykorzystanie. Jednak jeśli dane z określonych źródeł lub kultur nie zostaną uwzględnione w modelu, przyszli badacze nie będą mogli wykorzystać go do wytwarzania wiedzy o tych źródłach lub grupach.
Zawłaszczenie Ograniczony dostęp do mocy obliczeniowej sprzyja korporacyjnemu zawłaszczeniu Zidentyfikuj swoją rolę w mechanizmach kapitalizmu i buduj przyszłość sprzyjającą nie tylko najbogatszym. Gwałtowny rozwój AI odbywa się przy intensywnej koncentracji zasobów. Jak dotąd w IT obserwowano jednokierunkowy trend: coraz większe możliwości przy coraz niższych kosztach i wyższej wydajności. Ostatnia fala rozwoju AI odwróciła tę tendencję: koszt osiągnięcia nawet niewielkich wzrostów jakości modeli rośnie wykładniczo. Dane wytwarzane przez ludzi i publiczne instytucje stają się zasobem przejmowanym przez wielkie firmy - to "kolonializm danych" (DOI: 10.1177/1527476418796632, 2018). Czy postęp w AI musi oznaczać postęp kapitalistyczny?
Człowiek Uniwersalizm AI to wąskie definicje ludzkiej podmiotowości Weź pod uwagę długą historię abstrakcji i ekstrakcji, aby móc wyobrazić sobie przyszłość dającą więcej wolności. Abstrakcja to redukowanie "prawdziwych, skomplikowanych i nieuporządkowanych" jednostek i społeczności oraz ich doświadczeń do postaci czystych danych. Ekstrakcja to proces zawłaszczania tych danych i oddzielania ich od osób, które je wytworzyły, w celu generowania zysku. Generatywne modele AI są często błędnie przedstawiane jako maszyny "uniwersalnej wiedzy", chociaż w rzeczywistości stanowią statystyczne metody na ukrywanie wszelkich odchyleń, wyjątków, nisz (DOI: 10.1111/jola.70040, 2025).

Uff 😮‍💨. Korzystając z tych “prowokacji” w dyskusjach o AI, nie możemy jednak zapominać, że perspektywa humanistyczna nie wystarczy do budowania krytycznej opowieści o sztucznej inteligencji. Konieczne jest także sięgnięcie po wątki związane z ekologią, ekonomią polityczną czy też alternatywne tematy techniczne, poruszane przez ruch open source / copyleft / podmiotowości cyfrowej.

Grafika: Dysputa i uwięzienie św. Katarzyny, XIII w., Wikimedia Commons, domena publiczna

Autor: redakcja

🤗
Jeśli ten wpis okazał się dla Ciebie wartościowy, możesz dorzucić się do wsparcia bloga. Postaw wirtualną kawę na Suppi.pl albo zostań patronem na Patronite.

Wpis opublikowany na licencji Creative Commons Uznanie autorstwa - Na tych samych warunkach.