Uratują nas tylko społeczności

Mozilla ulega presji Doliny Krzemowej, open source umożliwia wielkim firmom przerzucanie odpowiedzialności za utrzymanie kodu na zewnątrz, a generatywna „sztuczna inteligencja” jest wykorzystywana do neutralizowania zobowiązań licencyjnych wobec kodu i treści kulturowych. Czy w 2026 roku można mieć jeszcze nadzieję? Rozmowa z Michałem "ryśkiem" Woźniakiem, specjalistą ds. bezpieczeństwa informacji, administratorem sieci i aktywistą w zakresie praw cyfrowych.
Marcin Wilkowski: Co się dzieje z Firefoxem i Mozillą? Czytam wiele komentarzy, między innymi o tym, że to jest organizacja pozarządowa, która ma tworzyć i wspierać otwartą sieć, a mimo to zaczyna się zachowywać jak korporacja, która podąża za trendami.
Michał "rysiek" Woźniak: Firefox jest rozwijany przez Mozilla Corporation, która jest własnością Mozilla Foundation. Mozilla jest zanurzona bardzo głęboko w etosie Doliny Krzemowej. Powstała z Netscape’a i przez jakiś czas, i dalej w paru miejscach, robi dobrą robotę. Ale jeśli jest się zanurzonym w tym etosie i w tym koktajlu narracyjnym Doliny Krzemowej, to efekt jest, jaki jest.
Przejawem tego jest to podążanie za każdą modną nowinką. Przecież był nawet Firefox OS, system mobilny zbudowany wokół przeglądarki – kompletny niewypał, który zmarnował mnóstwo zasobów. Wydawało się, że próbowali z kryptowalutami. Gonią nowinki, gonią Chrome'a, bo im się wydaje, że ich zadaniem jest złapanie jak największej liczby użytkowników. Google jednak rzuca w Chrome'a kosmicznymi pieniędzmi, ma nieograniczone środki na rozwój przeglądarki. Przeglądarka dla Google'a jest podstawową rzeczą, bo dzięki temu, że kontrolują najpopularniejszą przeglądarkę, która zmonopolizowała rynek, mogą robić takie rzeczy, jak usuwanie możliwości korzystania z uBlock Origin i innych ad blockerów.
Zamiast gonić Chrome’a, Mozilla mogłaby zrobić z Firefoksa autentyczną alternatywę, z wbudowanym blokowaniem reklam, z innymi funkcjami, których osoby korzystające chcą, a których Google nigdy nie doda do Chrome’a. Bo zadaniem Mozilli powinno być właśnie danie realnej alternatywy.
Czy te ograniczenia nie są aktywne tylko w wersji mobilnej Chrome’a?
Nie, w ogóle już nie. Już nie zainstalujesz uBlock Origin na Chromie. Możesz zainstalować uBlock Origin Lite, ale nie jest on już odpowiednio skuteczny. Po prostu zmieniło się API, wyszedł manifest numer trzy, i już nie ma dostępu do pewnych API, które były niezbędne, żeby uBlock Origin działał tak, jak powinien.
Czy podążaniem za trendami w Mozilli nie było też usunięcie ikonek RSS z paska adresu? Niedawno wyłączony został też Pocket.
Tak, absolutnie. Z Pocketa nie korzystałem i nie mam jakiegoś silnego zdania na jego temat, poza tym, że znowu okazało się, że duża organizacja z Doliny Krzemowej wykupuje firmę, a potem jej usługę uwala. To kolejny przykład tego, że Dolinie Krzemowej nie wolno ufać, nieważne jaką ma formę instytucjonalną.
Moim zdaniem usunięcie przycisku RSS było gonieniem trendów, i poważnym błędem. Mozilla uzasadniała to tym, że rzadko się w to klika. Oczywiście, że rzadko, bo przecież często wchodzimy na strony, które już mamy dodane do czytnika RSS. Ale jest fundamentalnie ważne, żeby ta ikonka tam była, żeby była widoczna, żeby ludzie mogli w ogóle odkryć, że dana strona ma RSS albo odkryć, że RSS w ogóle istnieje.
Że może być alternatywą dla algorytmów, dając nieprzetworzony stream, nad którym mamy pełną kontrolę?
Dokładnie tak. RSS jest idealny do bezpośredniego docierania do odbiorcy przez organizacje, które mają własne strony internetowe. Usunięcie RSS to był ogromny prezent dla Google'a i dla mediów społecznościowych. Jeżeli nie wiem, że RSS istnieje, to jak mam śledzić zmiany na jakiejś stronie, albo wiedzieć na bieżąco, co się dzieje w danej instytucji? Najbardziej intuicyjnym wyborem jest O, pójdę sprawdzić, przecież na pewno mają konto na social mediach. I w ten sposób ludzie są zamykani w społecznościówkach. Mozilla przyczyniła się do tego wydatnie, usuwając jeden mały przycisk, bo jakiś middle manager szybko policzył statystyki. Jaka wobec tego jest misja Mozilli? Czy jest nią przeglądarka, w której wszystkie przyciski są klikane non stop? Czy raczej misją jest budowanie lepszej sieci? Bo jeżeli to drugie, to ten RSS jest kluczowy.
Mozilli trudno byłoby podążać za trendami, gdyby ignorowała “sztuczną inteligencję”?
Jest w ogóle od groma rzeczy, które Mozilla robi z tą tak zwaną sztuczną inteligencją, z tymi generatywnymi narzędziami. Zacznę od dobrej rzeczy: od modelu, który zintegrowali z Firefoksem w celu automatyzacji tłumaczenia. Firefox ma możliwość tłumaczenia stron internetowych na coraz więcej języków, ostatnio dodali wsparcie islandzkiego, co dla mnie osobiście jest bardzo ważne. To tłumaczenie jest robione na naszym urządzeniu, bez wysyłania danych. Wszystkie dane zostają na naszym urządzeniu. Dla mnie to jest fantastyczne. Gratulacje.
To musi być super wydajne narzędzie, skoro działa lokalnie.
Narzędzie nie chodzi na silniku przeglądarki, to jest po prostu zintegrowany model. Przeglądarka zrzuca to na kartę graficzną, jeśli jest dostępna, a jak nie, to przetwarza na procesorze. Wątpię, żeby to było zaimplementowane w JavaScripcie. Jeśli to działa na zwykłym desktopie, to nieźle. Świetnie, że Mozilla się odważyła to zrobić, bo cała narracja wokół AI jest taka, że to muszą być ogromne modele utrzymywane przez ogromne korporacje, w żadnym wypadku małe modele działające lokalnie, bo model biznesowy, który próbują wytworzyć, polega na monopolizacji. Musisz korzystać z ChatGPT, z Clouda, z Gemini. A jak się okazuje, że jakiś mniejszy lokalny model może działać skutecznie, to NVIDIA traci sześćset milionów dolarów, jak to było przy okazji Deep Seek One.
Bardzo duże zróżnicowanie modeli “AI” jest w debacie społecznej właściwie nieobecne. Niedawno byłem na spotkaniu w gronie akademickim, podczas którego niemal wszyscy utożsamiali “sztuczną inteligencję” wyłącznie z ChatGPT, tak jakby nic poza tym narzędziem nie istniało, a sam Chat był pojedynczym modelem.
Modelem biznesowym Doliny Krzemowej jest monopol. Mówił o tym otwarcie Peter Thiel już chyba piętnaście lat temu. Powiedział “Jeśli odpalasz firmę technologiczną, Twoim celem jest monopol, bo normalna konkurencja na wolnym rynku jest dla przegrywów. Competition is for losers" To jest dosłowny cytat, to właśnie credo Doliny Krzemowej, to jest credo OpenAI, Google, Mety i wszystkich tych wielkich korporacji.
Wspomniałem o dobrym rozwiązaniu AI, czyli lokalnym modelu do tłumaczenia, ale są też inne. Jest standardowe okno Firefoxa, jest też okno z pewną ochroną prywatności (tryb incognito), ma być od teraz trzeci tryb przeglądania sieci - agentowy. Nie wiem dokładnie jak to ma działać, to ma być jakiś tryb korzystania z przeglądarki. W czym ma to pomagać użytkownikom? Szczerze powiedziawszy, nie wiem. Z narzędzi generatywnych próbowałem korzystać parę razy i za każdym razem dochodziłem do wniosku, że po prostu nie są mi do niczego potrzebne. Nie nadają do tego, do czego są sprzedawane i z jakich powodów wpychane do oprogramowania. To też robi Mozilla: wciska nam "Agentic AI", a to już nie jest model bezpośrednio działający na naszym urządzeniu, tylko program, który rozmawia z jakimiś serwerami, można sobie podpiąć Clouda czy ChatGPT. Moim zdaniem wpychają do przeglądarki to AI zupełnie niepotrzebnie, to kolejna rzecz, którą muszę wyłączać w ustawieniach przeglądarki.
Kolejna rzecz, którą zrobili, jest przerażająca. Mozilla udostępniła serwis pozwalający na scrapowanie, chwalą się, że ta usługa będzie reliable. Niezawodna i wiarygodna w tym sensie, że nawet jeżeli dana strona broni się przed scrapingiem, bo coraz więcej stron odpala jakieś rzeczy, żeby chatboty i pająki wielkich korporacji nie ściągały ich treści, to Mozilla proponuje: Nie, nie, nawet jak się ta strona broni, to my znajdziemy sposób, żeby ją zescrapować.
Na jakimś bardzo podstawowym poziomie to podważa zaufanie do tej organizacji. Mozilla takim projektem pokazuje wprost: mamy w nosie wasze ustawienia, mamy w nosie wasze preferencje, nie uznajemy waszych preferencji za jakąkolwiek wartość.
Tak, mamy w nosie co myślicie o tym, jak wasza strona może być używana. Mamy w nosie to, że macie jakieś preferencje. Wasze preferencje, towarzyszu użytkowniku czy towarzyszu administratorze strony internetowej, nas w ogóle nie interesują. Interesuje nas to, żeby cisnąć AI.
Dużo mówiliśmy o Mozilli, ale spróbujmy teraz naszą rozmowę skierować na bardziej ogólny poziom, wyjść trochę wyżej, na poziom bardziej ogólny. Jaki jest dzisiaj stan open source? Mozilla jest jednak zbudowana na pewnej koncepcji open source, która, jak pamiętam lata dwutysięczne, była przedstawiana jako pewna alternatywa dla kierunku, w jakim idzie współczesny Internet czy współczesne IT. Jak wygląda dziś świat open source? Czy to jest tak, że pewna naczelna idea została już zupełnie skompromitowana?
Jak każdy duży ruch, ten ruch też jest niejednorodny i ludzie mają różne postawy. Dla mnie nadal ważne jest rozróżnienie: wolne oprogramowanie (free software) i otwarte oprogramowanie (open source). Wolne oprogramowanie jest bardziej zakorzenione w jakimś konkretnym etosie, filozofii. Otwarte oprogramowanie jest publikowane na zasadzie"napisałem, używaj, mam w nosie, co się z tym stanie”. Tymczasem wolne oprogramowanie to zasada: Chcę, żeby inne osoby korzystające z tego kodu również miały dostęp do nowszych wersji zmodyfikowanych przez kogoś innego w sposób taki, w jaki ja to udostępniam w tej chwili. Różnica niby niewielka, ale kluczowa.
Inna rzecz, że cała ta część oprogramowania, które jest na licencjach otwartoźródłowych, nie copyleftowych, czyli otwarte oprogramowanie w tym podziale, to są podstawy, na których Facebooka i Google'a zbudowano. Czyli efektem wypuszczania tego oprogramowania na licencjach niecopyleftowych jest to, że dzisiaj mamy zgównowacenie internetu, Big Techy i kapitalizm nadzoru.
Czy uznałbyś taki pogląd, że mainstream open source to dziś tak naprawdę przerzucanie kosztów produkcji wielkich platform i ich utrzymywania na wolontariuszy, którzy rozwijają otwarte oprogramowanie?
Jestem wielkim zwolennikiem ruchu wolnego oprogramowania. Uważam, że oprogramowanie powinno być wolne i na otwartych, copyleftowych licencjach, zwłaszcza licencjach takich jak AGPL. Google Open Source Project wielkimi bukwami na swojej stronie informuje, że AGPL jest absolutnie haram. W żadnym wypadku nic na AGPL-u nie będzie tam zaakceptowane, i nikt, kto tam pracuje, nie może nawet dotykać oprogramowania, które jest na AGPL-u. Dlaczego? Dlatego, że podejście Google'a do open source jest takie właśnie transakcyjne, ekstrakcyjne, na zasadzie: my tu wam troszkę pomożemy, ale dzięki temu mamy tę darmową siłę roboczą. Wartość tak naprawdę płynie w jedną stronę, i to widać po tym, jak Google, Facebook i podobne firmy rozwinęły się w oparciu o te otwarte rozwiązania.
To też widać po projektach takich jak cURL czy FFmpeg, gdzie wielkie firmy globalne, giganci, którzy mają nieograniczone zasoby finansowe, wrzucają bugi na backtrack działającym oddolnie deweloperom i domagają się natychmiastowych poprawek. To są projekty, gdzie działa jeden gość, dwóch, dziesięciu gości pracujących po godzinach. Dlatego odpowiadają: wiecie co, jak nam nie płacicie, to spadajcie. Gdzie tu jest sens? Gdzie logika? Jak możecie tak nas wykorzystywać?
Podobnie było kilka lat temu przy Log4Shell, wielkiej dziurze w jednej z bibliotek Java, w zasadzie domyślnej bibliotece wykorzystywanej do logowania różnych rzeczy. Dziura pozwalała na zdalne wykonywanie złośliwego kodu, kompletna masakra. Praktycznie każdy projekt napisany w Javie korzysta z Log4J. Wtedy wielkie firmy zaczęły wysyłać pisma do projektów open source, które korzystały z Log4J w swoich rozwiązaniach, używanych następnie przez te firmy, z żądaniem wypełnienia trzystronicowego formularza. Na co wiele z tych projektów odpowiedziało: jak nam zapłacicie za consulting, to wam odpowiemy na te pytania. Jakim prawem się domagacie takiej obsługi?
Czy to właśnie nie jest doskonały przykład zawłaszczania zysków przy uspołecznianiu kosztów?
Absolutnie tak. Jednak wcale nie twierdzę, ruch wolnego oprogramowania nie dał rady i że jego czas minął. Wręcz przeciwnie. Uważam, że właśnie wolne oprogramowanie na licencjach copyleftowych, zwłaszcza typu AGPL, jest nieprawdopodobnie ważne. Google buduje swoje repozytorium kodu, zasysając źródła na licencjach niecopyleftowych i na tym rozszerzając swoje imperium, ale ludzie, dla których cyfrowe prawa człowieka są cenne, dla których prywatność jest wartością, dzięki licencjom copyleftowym mogą budować repozytorium kodu już nie scentralizowane, tylko istniejące ogólnie, z którego możemy swobodnie korzystać. Świetnym przykładem jest Nextcloud, którego kod jest wolny, ale jednak niedostępny dla Google'a, tak samo jak dla nas niedostępne są zmodyfikowany przez Google’a kod źródłowy projektów na niecopyleftowych licencjach w jego repozytorium. Copyleft to jedyna metoda, dzięki której, przez narzędzia licencyjne, możemy przerzucić się na alternatywy, które nie są pod kontrolą tych pięciu czy sześciu wielkich korporacji. Dopiero kiedy zaczniemy budować takie rozproszone repozytorium kodu na AGPL i na innych licencjach copyleftowych, a więc wykluczających wielkie korporacje, będziemy mogli zbudować jakieś usługi, które będą mogły być prawdziwą alternatywą.
Chciałbym zatrzymać się na chwilę przy AGPL. Nowym wyzwaniem dla licencji copyleft jest scrapowanie, o którym już wspomniałeś. To pytanie, czy ja mogę w jakiś sposób ograniczać maszynowe użycie do budowy modeli AI kodu objętego copyleftem? Druga kwestia to niejasność, czy te licencje nadają się do tego, żeby za ich pomocą wprowadzać do ekosystemu kod generowany maszynowo? Źródła pochodzenia kodu może się już nie da sprawdzić.
To jest dramatycznie trudna prawna dyskusja, która się toczy i jeszcze będzie się długo toczyć. Podejrzewam, że w pewnym momencie ktoś się na to bardzo natnie w kodzie źródłowym i podejrzewam, że to się skończy w ten sposób, jak się skończyło na przykład dla Microsoftu, gdzie niechcący zintegrowali jakiś kod na GPL-u, a potem musieli wypuścić całą daną aplikację, która ten kod zintegrowała. I podobnie jak Linksys musiał wypuścić kod WRT, na czym powstał OpenWRT. Tak to się niestety albo stety skończy w pewnym momencie. I to jest też powód, dla którego Google nie chce tych GPL-owych licencji nigdzie nawet w pobliżu swojego kodu.
To jest ciekawy problem. Firmy wykorzystują narzędzia generatywne do mathwashingu. To zmywanie ryzyk prawnoautorskich czy licencyjnych za pomocą matematyki. Bierzemy kod na konkretnych licencjach, wrzucamy go do tej maszynki, w której nie bardzo wiadomo, co się dzieje, jakaś magia, statystyka, sztuczna inteligencja, i ta maszynka wypluwa nam kod, który jest czyściutki pod względem prawnym. Tylko że to tak nie działa.
Mówiliśmy o kodzie, ale to się dzieje również w kontekście treści kulturowych wszelkiego rodzaju, i dzieje się w ten sam sposób. OpenAI na przykład robi math washing treści Studio Ghibli. Ten cały filtr "ala Studio Ghibli" jest obrzydliwy. Studio Ghibli jednoznacznie powiedziało, że absolutnie nie zgadza się na takie wykorzystanie swoich dzieł, a OpenAI powiedziało: "I co nam zrobicie?", bo to przecież przeszło przez matematykę, przez maszynkę AI. Więc to nie jest już wasza rzecz, to nie jest żadne kopiowanie.
Wiadomo, jakie zasoby finansowe ma OpenAI, a jakie zasoby ma Studio Ghibli. Studio Ghibli raczej nie poda ich do sądu. Ta sprawa pokazuje, jak zepsute, jak kompletnie sknocone jest prawo autorskie, skoro takie sytuacje mogą mieć miejsce.
Z drugiej strony, rozmawiałem z prawnikami i z punktu widzenia prawa autorskiego (przynajmniej w Stanach Zjednoczonych) bardzo szybko pojawiła się oficjalna interpretacja, która mówi jasno: rzeczy wytworzone przez narzędzia generatywne nie podlegają pod prawo autorskie, bo prawo autorskie wymaga autora. Innymi słowy, uwaga, jeżeli jakieś wielkie studio wygeneruje nam cały film AI, to to nie podpada pod prawo autorskie. Wtedy ja mogę to skopiować i robić z tym, co chcę. Ale jeśli taka maszynka wygeneruje coś, co jest wystarczająco bliskie jakiemuś dziełu, które jest objęte prawem autorskim, to może być już naruszeniem prawa autorskiego. Myszka Miki jest tylko częściowo w domenie publicznej, ale jeśli to, co wygenerowałem, przypomina jej współczesny wizerunek, to bez względu, czy to jest stworzone ręcznie przez artystę, czy wygenerowane maszynowo, mogą pojawić się kłopoty.
Jeżeli maszynka wygeneruje nietrywialny fragment kodu, który zupełnie jasno wygląda na skopiowany z konkretnego miejsca, a przecież to się dzieje non stop, to już naruszenie prawa autorskiego. Jeżeli ten oryginalny kod, na którym to zostało wytrenowane, przypadkiem jest na AGPL-u, to może mieć bardzo śmieszne konsekwencje… Główny problem leży jednak w tym, jak dostać się do tego kodu źródłowego. Jeżeli to jest zamknięte oprogramowanie, na przykład Microsoft użył sobie Copilota, wygenerował sobie coś i tego nie wypuszcza na zewnątrz, to jak mogę sprawdzić, znaleźć te fragmenty kodu, które zostały wygenerowane, nie są ode mnie tak naprawdę skopiowane?
Od strony prawnoautorskiej to są fascynujące przypadki. Być może jesteśmy w momencie, kiedy więcej osób zrozumie, że prawo autorskie jest niedostosowane do współczesności na tak wiele sposobów i w tak wielu wymiarach. Przez pierwszy, drugi rok istnienia narzędzi generatywnych była nadzieja, że będzie się uznawać ich działanie po prostu za kopiowanie, co kompletnie naruszałoby prawa autorskie. Sam Sam Altman powiedział kiedyś, że jeżeli my musielibyśmy płacić za te wszystkie dane treningowe, to by to nam zniszczyło model biznesowy. No, stary, ale jeżeli twój model biznesowy tak działa…
Niestety, wydawcy książek, wydawcy prasy, mnóstwo organizacji po prostu podpisało umowy z OpenAI, gdzie dostają jakieś śmieszne pieniądze za zgodę na trenowanie modeli na treściach autorskich. Ile z tego trafia do samych autorów? Podejrzewam, że prawie nic. Nie spotkałem jeszcze osoby autorskiej, która byłaby zadowolona z tego, że AI są trenowane na jej dziełach i miała z tego jakiś zysk. Prawo autorskie znowu okazało się prawem wydawców; nie chroni praw autorów, tylko inwestycje osób, które mają kapitał, żeby pozyskiwać prawa do dzieł.
Opisywałeś dotąd system, który nie za bardzo działa, czy to pod względem praktyki open source czy prawa autorskiego dla treści kultury. Czy jest mimo tego w przestrzeni technologiczno-programistycznej jakiś progres? Nie myślę tu wyłącznie o sztucznej inteligencji. Czy mamy jakieś nowe propozycje, które udowadniają, że oprogramowanie i sama refleksja nad oprogramowaniem się rozwija?
Dla mnie światełkiem nadziei jest Fediverse. Fundamentem Fediversu jest wolne oprogramowanie, większość narzędzi typu Mastodon czy Pleroma jest wypuszczona na AGPL-u właśnie, czyli copyleftowo, również w kontekście chmury. Ale na tej bazie licencyjno-coderskiej powstały różne społeczności i tam się odbywa bardzo ciężka praca intelektualna i emocjonalna, związana z tym, jak technologia powinna działać i czym tak naprawdę jest wyrażenie zgody. Czym tak naprawdę jest zgoda wyrażona świadomie? To są wszystko tematy, które ogarnia Panoptykon czy EDRI, ale w Fediverse to się dzieje na poziomie ludzi korzystających z tej sieci.
W tych zakątkach Fediversu, w których ja się obracam, podmiotowość osoby korzystającej jest rzeczą absolutnie podstawową. Jeżeli pojawia się jakiś nowy tech bros, który twierdził zrobię globalną wyszukiwarkę dla Fediversu, zescrapuję wszystkie konta i wszystkie publiczne posty, to reakcją na to jest potężny pushback, a projekt umiera lub przynajmniej przestaje być publiczny.
To jest też kwestia pewnej postawy, co do tego, że coś mi się należy jako przedsiębiorcy. Tech bros wchodzi na Fediverse i myśli, to wygląda jak Twitter. Zrobię globalną wyszukiwarkę, mogę ją zrobić i pozyskać wszystkie publiczne posty. Przecież są publiczne, a jeśli ktoś by nie chciał, żeby przeszukiwać jego wpisy, to przecież nie powinien ich publikować. Ale ludzie mówią, stary, ale wiesz, nie każdy ma na to ochotę. Użyłem słowa stary, bo osoby, które wyskakują z takimi pomysłami bez jakiegokolwiek przemyślenia praw i preferencji społeczności, to zawsze są faceci.
To jest takie eksploatacyjne podejście.
Oczywiście, że tak. I jeszcze ten argument, że "skoro jest opublikowane, to znaczy, że mogę korzystać, jak chcę. Dla mnie powiewem świeżości jest to, że w Fediversie zupełnie naturalną odpowiedzią jest nie, absolutnie nie.
Czy na poziomie samych protokołów, nie mówię o wdrożeniach programistycznych, pojawiają się jakieś fajne pomysły, czy fajne projekty? Ostatnio czytałem o próbach tworzenia alternatyw do robots.txt, które byłyby przeznaczone do zarządzania ruchem scraperów AI.
Cloudflare zrobił taką usługę dla wydawców stron. Powiedział, my was ochronimy przed scraperami. Ale drugim krokiem było ogłoszenie oferty dla firm scrapujących internet - hej scrapery! Nie, nie będziecie już scrapować tych danych, które są za naszym wallem, chyba że nam zapłacicie, a my się częścią tego zysku podzielimy z wydawcami.
Z jednej strony chęć zysku dużych firm i eksploatacyjne podejście do zasobów internetu zmusza wydawców do tego, żeby się chronili przed scrapowaniem, ale taka ochrona od razu staje się usługą, na której da się zarabiać, udostępniając te treści.
To jest dosłowny gatekeeping w obie strony. Dlatego dla mnie Fediverse jest tym światełkiem w tunelu, nie tylko ze strony technologii, ale również dlatego, że jest tam nacisk na wspólnotę, a nie na indywidualną osobę. Fediverse daje alternatywę nie tylko dla Big Techów, gdzie są wszyscy i jest centralna organizacja, która to kontroluje, ale daje też alternatywę wobec libertariańskiego indywidualizmu na zasadzie sam sobie sterem, żeglarzem, okrętem, sam sobie tutaj PGP skonfiguruję. Takie podejście też jest niezdrowe, libertariański indywidualizm dał nam przecież Bitcoina i przekręty na kryptowalutach.
Fediverse to nie tylko społeczność, nie tylko jakaś etyka i jakaś moralność związana z tym, jak korzystamy z technologii, nie tylko self-hostowanie, ale też przekonanie, że uratują nas tylko społeczności.
Michał "rysiek" Woźniak - specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem Warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Strona domowa: rys.io.
Autor: redakcja
