Polityka korzystania z narzędzi genAI w Fundacji Centrum Cyfrowe

Generatywna sztuczna inteligencja (genAI) od 2022 roku zmieniła i wciąż wpływa na sposób, w jaki piszemy, tworzymy, badamy, uczymy się i przetwarzamy informacje.

Autor: Fot. Derek Xing, via Pexels
Fot. Derek Xing / Pexels.

W Fundacji Centrum Cyfrowe wykorzystujemy różne narzędzia genAI, w zależności od zadań, które wykonujemy. Korzystamy z nich do transkrypcji wywiadów, analizy tekstu, wsparcia przy generowaniu szerszego wachlarza wariantów, tłumaczeniu i na różnych etapach badawczych.

Posługujemy się tymi narzędziami przy tworzeniu maili, postów w mediach społecznościowych oraz przy pisaniu wniosków. Warto w tym miejscu jasno rozróżnić, jakie dane mogą być przetwarzane w narzędziach korporacyjnych (do których licencje Fundacja ma wykupione), a jakie w narzędziach prywatnych lub otwartych — te drugie są dopuszczalne, ale wyłącznie w sytuacjach niewymagających użycia danych poufnych, wrażliwych lub objętych tajemnicą organizacji. Zdajemy sobie też sprawę z wielu przypadków naruszeń ochrony własności intelektualnej, wykorzystywanej przez producentów modeli bez zgody autorów i autorek, twórców i twórczyń do celów treningowych, dlatego też chcemy wybierać narzędzia świadomie i odpowiedzialnie.

Naczelną zasadą, która nam przyświeca, jest całkowita odpowiedzialność osoby korzystającej z tych narzędzi za ostateczne rezultaty pracy. Nie delegujemy też całości zadań na generatywną sztuczną inteligencję, tylko ich wybrane części, związane szczególnie z porządkowaniem budowanych treści, ich przeglądem pod kątem logicznym i wypatrywaniu luk w myśleniu. Poniżej przedstawiamy szczegółowe zasady, które stosujemy podczas pracy z narzędziami genAI w Fundacji Centrum Cyfrowe.

Jakie zasady nam przyświecają?

  • Transparentność – piszemy, kiedy i do czego wykorzystane zostało genAI, chyba, że są to rutynowe działania (np. tłumaczenie tekstu, po którym człowiek sprawdza jego jakość).
  • Ograniczone zaufanie – nie wrzucamy do narzędzia danych, które mogłyby zostać uznane za wrażliwe, danych osobowych, niejawnych etc.
  • Domyślna podejrzliwość – zakładamy, że genAI zawsze może podawać błędne informacje1, np. odnosić się do nieistniejących lub oznaczonych niewłaściwym autorstwem tekstów i/lub niesłusznie łączyć wnioski z różnych wypowiedzi. Zachowujemy czujność wobec zakrzywień, które mogą wynikać z danych treningowych modeli, braku transparentności, lub ogólnej postawy i celów biznesowych producentów tych narzędzi.
  • Ograniczone użycie – nie unikamy korzystania z narzędzi genAI, ale korzystamy z nich wtedy, gdy jest to sensowne czy potrzebne – mając w pamięci ślad węglowy oraz higienę i dyscyplinę pracy umysłowej.
  • Najpierw człowiek, później maszyna – narzędzia genAI służą jako uzupełnienie pracy ludzkiej, dlatego najpierw wychodzimy z pomysłem na badanie, tekst lub wnioski z badania, a dopiero później korzystamy z narzędzi genAI, aby wyszukiwać luki we wnioskowaniu lub odkrywać niewidoczne wcześniej połączenia między danymi.
  • Unikamy zarówno „uczłowieczania” (antropomorfizacji) narzędzi opartych o sztuczną inteligencję, jak i ich „demonizacji”. Wierzymy, że narzędzia cyfrowe mogą usprawniać codzienną pracę zgodnie z indywidualnymi potrzebami i nawykami użytkownika, oraz przede wszystkim wspierać, a nie wypierać ludzką wiedzę, kreatywność, wrażliwość, intuicję, wnioskowanie. Kluczem do zrównoważonego podejścia do genAI jest świadomość związanych z nim mechanizmów, możliwości i ryzyk.

Najczęstsze przykłady użycia:

  • Transkrypcje wywiadów w badaniach jakościowych.
  • Tłumaczenia tekstów – zarówno w celach roboczych (np. tłumaczenie artykułu naukowego w obcym języku) oraz jako wsparcie w publikacjach (tłumaczenia publikowane na stronie Centrum Cyfrowego zawsze przechodzą weryfikację merytoryczną i redakcję przez specjalistów).
  • Budowanie bazy pomysłów (ideation).
  • Krytyka napisanego tekstu.
  • Propozycja tytułów lub nazw projektów.
  • Pogłębianie, poszerzenie argumentacji.
  • Wsparcie w przygotowaniu do wystąpień.
  • Przeszukiwanie dużych korpusów danych.

Użycie dużych modeli językowych w procesie pisania:

  • Wsparcie w tworzeniu tekstów komunikacyjnych i ich wariantów dostosowanych do różnych kanałów i odbiorców (np. aktualność na stronie internetowej, treści w mediach społecznościowych, informacja prasowa).
  • Drafty maili, szczególnie podsumowujących spotkania na podstawie odręcznie sporządzonych notatek.
  • Podsumowania spotkań, debat, rozmów.
  • Rozwijanie przygotowanych przez człowieka/ludzi punktów w dyskusji, fragmentów artykułów i/lub przygotowywanych wniosków.
  • Wsparcie w redakcji językowej i stylistycznej, korekcie.

Użycie genAI w procesie badawczym, projektowym:

  • Wykorzystanie narzędzi do transkrypcji wywiadów, warsztatów wydobywczych, etc.
  • Wykorzystanie w analizie danych zastanych (desk research), szczególnie do wyciągania wniosków z dużej liczby dokumentów – zawsze weryfikując kontekst źródła, na podstawie którego model wysunął swoją propozycję.
  • Wykorzystanie w analizie danych jakościowych – jako uzupełnienie ręcznego kodowania (triangulacja).
  • Tworzenie dokumentacji projektów na podstawie różnorodnych typów informacji (np. notatki po spotkaniach, maile, wątki w GitHubie), z odpowiednim zabezpieczeniem danych wrażliwych czy niejawnych.

Użycie genAI oraz innych narzędzi opartych o AI w innych przypadkach:

  • Wykorzystanie automatyzacji w usprawnianiu tworzeniu materiałów wideo i dźwięku (np. wsparcie w montażu, wycięciu pauz, etc.).
  • Wsparcie w retuszu czy edycji zdjęć (np. poszerzenie tła, by poprawić kompozycję) – bez ingerencji w wygląd przedstawionych osób.
  • Poszukiwanie informacji np. o autorze, źródle, autentyczności materiałów wizualnych (zdjęć, grafik) poprzez narzędzia wyszukiwania po obrazie.
  • Generowanie tekstów alternatywnych do materiałów wizualnych (umożliwiających „odczytanie” cyfrowego obrazu przez czytniki osób niewidzących, a także usprawniających rozpoznawanie treści przez algorytmy platform czy wyszukiwarek).
  • Ponadto, w codziennej pracy korzystamy z narzędzi Google Workspace, które posiadają funkcjonalności zasilane modelami sztucznej inteligencji.

Kiedy i do czego nie wykorzystujemy narzędzi genAI?

  • Do tworzenia całych tekstów i/lub prezentacji, wystąpień, komunikatów.
  • Do generowania materiałów wizualnych od zera, np. grafik czy deepfake’ów do ilustracji naszych komunikatów — korzystamy z bogactwa zasobów z domeny publicznej i Creative Commons. Wyjątek mogą stanowić materiały wykorzystywane (lub tworzone) w trakcie warsztatów szkoleniowych, w ramach których jednocześnie omawiamy zagadnienie produkcji grafik przez narzędzia genAI.
  • Do podsuwania pomysłów na tekst lub treść: najpierw piszemy o naszym pomyśle (w mniej lub bardziej ustrukturyzowany sposób), a później dopiero korzystamy z genAI do wskazania słabych stron, znaczących braków, potencjalnych kierunków rozwinięcia tematu, etc.

 


 

1 Celowo unikamy używania słowa „halucynacje”, które nadaje narzędziom genAI sprawczość oraz – niekiedy – cechy ludzkie. Jeśli ktoś halucynuje, to znaczy, że ma funkcje poznawcze, a genAI takich jeszcze nie ma, por. https://news.northeastern.edu/2023/11/10/ai-chatbot-hallucinations/

 

 

Pierwotna wersja tego tekstu powstała bez użycia AI. Tłumaczenie na język angielski odbyło się przy użyciu Gemini, a następnie zostało sprawdzone przez osoby z zespołu FCC.