Wróć do strategii
Cel modułu
Celem modułu jest wyposażenie uczestników w wiedzę pozwalającą wykorzystywać narzędzia oparte na sztucznej inteligencji jako wsparcie pracy kuratorskiej, analitycznej i organizacyjnej w instytucjach kultury. Moduł koncentruje się na praktycznych zastosowaniach AI w analizie danych dotyczących funkcjonowania wystaw, planowaniu narracji ekspozycji, porządkowaniu informacji oraz wspieraniu procesów decyzyjnych związanych z odpowiedzialnością środowiskową. Uczestnicy uczą się rozumieć AI jako element infrastruktury pracy instytucjonalnej, osadzony w ramach etycznych i organizacyjnych.
Zakres merytoryczny modułu
1. Sztuczna inteligencja jako narzędzie pracy instytucji kultury
W tej części modułu omawiane są:
Ten segment buduje podstawowe rozumienie technologii jako elementu środowiska pracy.
2. Analiza danych dotyczących publiczności i użytkowania wystaw
W tej części uczestnicy poznają:
Segment ten pokazuje, w jaki sposób dane publiczności wspierają refleksję nad skalą i intensywnością działań instytucji.
3. Wsparcie planowania narracji wystaw i treści edukacyjnych
Ta część modułu koncentruje się na:
Uczestnicy uczą się traktować AI jako narzędzie wspierające refleksję nad językiem i strukturą przekazu.
4. Automatyzacja obiegu informacji i dokumentacji instytucjonalnej
W tej części omawiane są:
Ten segment pokazuje, w jaki sposób technologia porządkuje wiedzę instytucjonalną i wspiera ciągłość pracy.
5. Ramy etyczne i odpowiedzialne korzystanie z AI w instytucjach kultury
W tej części uczestnicy poznają:
Segment ten osadza wykorzystanie technologii w ramach odpowiedzialności społecznej i organizacyjnej.
Narzędzia modułowe
Do modułu przypisany jest zestaw narzędzi wspierających praktyczne zastosowanie treści:
Efekt uczenia się po ukończeniu modułu
Po ukończeniu modułu uczestnik:
Celem modułu jest wyposażenie uczestników w wiedzę pozwalającą wykorzystywać narzędzia oparte na sztucznej inteligencji jako wsparcie pracy kuratorskiej, analitycznej i organizacyjnej w instytucjach kultury. Moduł koncentruje się na praktycznych zastosowaniach AI w analizie danych dotyczących funkcjonowania wystaw, planowaniu narracji ekspozycji, porządkowaniu informacji oraz wspieraniu procesów decyzyjnych związanych z odpowiedzialnością środowiskową. Uczestnicy uczą się rozumieć AI jako element infrastruktury pracy instytucjonalnej, osadzony w ramach etycznych i organizacyjnych.
W perspektywie instytucjonalnej AI przestaje być gadżetem od „szybkich tekstów” i staje się narzędziem infrastrukturalnym: takim, które wpływa na obieg informacji, jakość opisów, tempo produkcji, sposób podejmowania decyzji, a także na relacje władzy między instytucją, dostawcami technologii i publicznością. W tym module AI jest traktowana jako warstwa robocza nakładana na istniejące procesy: archiwa, rejestry, dokumentację projektową, notatki zespołu, obserwacje użytkowania wystaw, zasoby edukacyjne. Największa wartość pojawia się tam, gdzie instytucja ma nadmiar materiału (tekst, zdjęcia, metadane, notatki, formularze, maile, pliki z projektów) i jednocześnie brakuje jej czasu oraz pojemności poznawczej, aby tę masę uporządkować w sposób umożliwiający działanie.
Moduł jest też osadzony w realiach środowiskowych infrastruktury cyfrowej. Rozwój AI wiąże się z rosnącymi obciążeniami centrów danych i zużyciem energii, co ma znaczenie dla instytucji, które budują zielone strategie i chcą spójności między deklaracjami a praktyką narzędziową. Międzynarodowe analizy wskazują na rosnący popyt na energię w sektorze centrów danych, napędzany m.in. przez rozwój AI, a dyskusja o odpowiedzialności cyfrowej coraz częściej dotyka konkretnych wyborów: kiedy używać modeli ogólnych, kiedy narzędzi wyspecjalizowanych, jak ograniczać liczbę iteracji, jak budować procedury, które redukują „przemiał” danych w organizacji.
1. Sztuczna inteligencja jako narzędzie pracy instytucji kultury
Podstawowe kategorie narzędzi opartych na AI wykorzystywanych w sektorze kultury układają się dziś w kilka praktycznych rodzin, które odpowiadają na konkretne zadania instytucji. Pierwsza rodzina obejmuje narzędzia językowe (modele generujące i analizujące tekst), wykorzystywane do streszczania dokumentów, porządkowania notatek, budowania wariantów opisów, redagowania materiałów roboczych i przygotowywania struktur narracyjnych. Druga rodzina obejmuje narzędzia do analizy danych i wzorców (od prostych klasyfikatorów po modele predykcyjne), przydatne przy pracy z danymi o frekwencji, zachowaniach publiczności, obciążeniach użytkowania, logach technicznych i zasobach eksploatacyjnych. Trzecia rodzina obejmuje narzędzia do pracy z obrazem (rozpoznawanie, tagowanie, wyszukiwanie wizualne, ekstrakcja metadanych), istotne w kontekście archiwów i dokumentacji wystaw. Czwarta obejmuje narzędzia do wyszukiwania semantycznego i „asystentów wiedzy” opartych na wewnętrznych zasobach instytucji (bazy opisów, instrukcje, protokoły, rejestry, raporty), które przekształcają archiwum z magazynu plików w aktywny zasób operacyjny. Piąta rodzina dotyczy automatyzacji obiegu pracy (klasyfikacja maili, generowanie podsumowań spotkań, wypełnianie szablonów, wykrywanie braków w dokumentacji). Wreszcie istnieje rodzina narzędzi wyspecjalizowanych dla sektora dziedzictwa i danych kulturowych, rozwijanych w europejskich inicjatywach oraz platformach szkoleniowych dla instytucji kultury.
Relacja między automatyzacją a wsparciem pracy zespołów kuratorskich i organizacyjnych wymaga precyzyjnego rozróżnienia. Automatyzacja ma sens tam, gdzie czynność jest powtarzalna i ma jasne kryteria jakości, a błędy są łatwe do wychwycenia: porządkowanie plików, ujednolicanie formatów, tworzenie indeksów, generowanie list, kontrola kompletności dokumentacji. Wsparcie (augmentacja) ma sens tam, gdzie praca jest interpretacyjna i wymaga odpowiedzialności instytucji: narracja, język opisów, decyzje o priorytetach, selekcja obiektów, dobór kontekstów. W instytucji kultury błędy w obszarze interpretacji mają ciężar reputacyjny i etyczny; dlatego AI w tych obszarach działa jako narzędzie robocze, a nie zastępstwo. Ten podział chroni instytucję przed mechanizmem, w którym „szybciej” zaczyna wypierać „dokładniej”, a później koszty wracają w postaci korekt, kryzysów komunikacyjnych i utraty wiarygodności.
Miejsce AI w strukturze instytucji kultury jako narzędzia wspomagającego analizę i porządkowanie informacji polega na tym, że AI wchodzi do instytucji przez istniejące wąskie gardła: rozproszenie wiedzy, brak standardów dokumentowania, brak czasu na raportowanie, nadmiar maili i plików, trudności w przekazywaniu wiedzy między działami i między projektami. AI jest tu katalizatorem zmiany pod warunkiem, że instytucja ma minimalne standardy: nazewnictwo plików, wersjonowanie, struktury folderów, szablony protokołów, rejestry decyzji, minimalny zestaw wskaźników. W praktyce AI wzmacnia jakość instytucjonalną wtedy, gdy instytucja ma już elementarną „higienę informacyjną”. W przeciwnym razie AI przyspiesza chaos: generuje kolejne warianty, kolejne pliki, kolejne podsumowania, które nie mają gdzie osiąść.
Znaczenie świadomego doboru narzędzi do skali i charakteru instytucji obejmuje trzy warstwy: warstwę zadania, warstwę ryzyka i warstwę kosztu środowiskowego. Warstwa zadania wymaga odpowiedzi czy narzędzie ma pomóc w streszczeniu, klasyfikacji, wyszukiwaniu, ekstrakcji danych, czy w generowaniu treści. Warstwa ryzyka dotyczy danych (w tym wrażliwych), praw autorskich i reputacji. Warstwa kosztu środowiskowego dotyczy wyboru rozwiązań: modele lżejsze i wyspecjalizowane często są wystarczające i mniej zasobożerne, a praca na lokalnych zasobach (wewnętrzne dokumenty) bywa bardziej efektywna niż wielokrotne generowanie tekstów od zera.
Rola kompetencji zespołu w odpowiedzialnym korzystaniu z rozwiązań opartych na AI sprowadza się do stworzenia wewnętrznej umiejętności trzech pytań: „z czego to powstało?”, „co może pójść źle?” oraz „kto ponosi odpowiedzialność za wynik?”. Ta kompetencja bywa ważniejsza niż zaawansowana wiedza techniczna. Instytucja potrzebuje też minimalnego modelu zarządzania ryzykiem AI, nawet w wersji lekkiej, opartego na uznanych ramach, które porządkują myślenie o ryzykach w całym cyklu użycia narzędzia. Tu przydatne są m.in. NIST AI RMF, który opisuje podejście do mapowania, mierzenia i zarządzania ryzykiem AI w sposób elastyczny, możliwy do zastosowania przez organizacje o różnych skalach.
2. Analiza danych dotyczących publiczności i użytkowania wystaw
Rodzaje danych generowanych przez instytucje kultury w trakcie funkcjonowania wystaw obejmują dane ilościowe oraz jakościowe. Dane ilościowe zwykle pochodzą z systemów sprzedaży biletów, liczników wejść, rezerwacji, statystyk stron internetowych i mediów społecznościowych, a także z wewnętrznych rejestrów operacyjnych (logi urządzeń AV, rejestry usterek, harmonogramy pracy). Dane jakościowe obejmują obserwacje zespołu sal, notatki edukatorów, ankiety i komentarze publiczności, zapisy rozmów, uwagi z oprowadzań, raporty z dyżurów, fotografie dokumentujące zużycie przestrzeni. W instytucjach pracujących „bez wielkich systemów” to właśnie dane jakościowe bywają najbogatsze, a jednocześnie najmniej wykorzystane, bo wymagają czasu na czytanie i kategoryzację.
Możliwości wykorzystania narzędzi AI do porządkowania i interpretowania danych jakościowych i ilościowych polegają przede wszystkim na trzech funkcjach: klasyfikacji, ekstrakcji i syntezie. Klasyfikacja pozwala grupować uwagi publiczności i notatki zespołu według tematów (np. czytelność, komfort, technologia, kolejki, orientacja w przestrzeni, dostępność). Ekstrakcja pozwala wydobywać z luźnych notatek konkretne fakty: miejsca problemowe, powtarzalne pytania, rodzaje interwencji, częstotliwość awarii. Synteza pozwala budować krótkie raporty robocze, które są „czytelną narracją danych” dla zespołu. W tej logice AI działa jako młyn do materiału jakościowego: zamienia rozproszone notatki w zestaw kategorii, wniosków i hipotez. Odpowiedzialność instytucji polega na tym, że synteza jest weryfikowana przez zespół, a nie traktowana jako prawda objawiona.
Analiza wzorców obecności publiczności w czasie i przestrzeni może być prowadzona w wersji minimalistycznej: tygodniowe próbki, segmentacja dni i godzin, porównanie okresów, mapowanie stref intensywnych. AI w tym procesie pomaga budować powtarzalne raporty: porównania tygodni, sygnały anomalii, korelacje między wydarzeniami a ruchem w strefach, wykrywanie okresów, w których obciążenie obsługi rośnie. W kontekście zielonego kuratorstwa takie analizy mają znaczenie praktyczne: pozwalają dostosować scenariusze pracy energii i technologii do realnego użytkowania, a także planować obsadę w sposób redukujący „pustą pracę” przy niskiej intensywności.
Relacja między danymi o użytkowaniu wystaw a decyzjami programowymi i organizacyjnymi jest dwukierunkowa. Decyzje kuratorskie i projektowe tworzą wzorce użytkowania (gdzie publiczność się zatrzymuje, co wymaga obsługi, co się psuje, co wymaga energii). Dane użytkowania pokazują konsekwencje tych decyzji i budują materiał do standardów instytucjonalnych. W tym module istotne jest przesunięcie perspektywy: analiza danych nie jest wyłącznie działaniem promocyjnym lub marketingowym, tylko elementem planowania zasobów instytucji i jakości doświadczenia.
Znaczenie analizy danych w kontekście odpowiedzialnego planowania zasobów polega na tym, że instytucja może przestać działać „na wyczucie” w obszarach energii, utrzymania, serwisu i obsługi sal. AI wspiera tu przejście od anegdoty do wzorca: pojedyncza uwaga staje się kategorią, pojedyncza awaria staje się trendem, pojedyncza obserwacja o tłoku staje się mapą stref. Taki materiał zasila decyzje: gdzie uprościć rozwiązania, gdzie wzmocnić elementy, gdzie zmienić scenariusz działania technologii, gdzie skrócić czas pracy urządzeń.
3. Wsparcie planowania narracji wystaw i treści edukacyjnych
Wykorzystanie AI do porządkowania dużych zbiorów treści kuratorskich i edukacyjnych odpowiada na realny problem instytucji: teksty powstają w wielu miejscach i w wielu wersjach, a spójność bywa efektem heroicznej pracy redakcyjnej na końcu procesu. AI może pracować wcześniej, na etapie, kiedy narracja jest materiałem roboczym. Funkcją AI nie jest tu „pisanie w miejsce kuratora”, tylko porządkowanie, wykrywanie luk, sprzeczności, powtórzeń oraz rozjazdów między językiem kuratorskim a językiem edukacyjnym.
Wspomaganie pracy nad strukturą narracji wystaw i materiałów towarzyszących obejmuje kilka operacji: tworzenie mapy pojęć (jakie pojęcia występują, które dominują, które znikają), tworzenie wariantów struktury (jak inaczej można ułożyć kolejność wątków), wykrywanie miejsc wymagających doprecyzowania definicji, wskazywanie fragmentów o nadmiernym żargonie, a także identyfikację „martwych odcinków” narracji, w których tekst nie ma funkcji dla odbiorcy. W praktyce instytucja może budować „warsztat narracyjny” oparty o iteracje: zespół przygotowuje materiał, AI pomaga go zmapować i zdiagnozować, a zespół podejmuje decyzje. Ten tryb jest szczególnie użyteczny tam, gdzie instytucja chce utrzymać jakość doświadczenia bez eskalacji produkcyjnej: lepsza struktura i język bywają bardziej efektywne niż dołożenie kolejnych urządzeń i elementów.
Analiza spójności komunikacyjnej programów wystawienniczych dotyczy zgodności między różnymi warstwami przekazu: opis wystawy, teksty na sali, materiały edukacyjne, strona internetowa, komunikacja promocyjna, komunikaty organizacyjne. AI może wspierać wykrywanie sprzeczności oraz miejsc, w których instytucja obiecuje doświadczenie, którego wystawa nie dostarcza, albo odwrotnie: wystawa oferuje wartość, której komunikacja nie umie nazwać. W kontekście zielonego kuratorstwa spójność komunikacyjna ma też wymiar etyczny: instytucja powinna mówić o działaniach środowiskowych w sposób rzetelny i proporcjonalny, unikając inflacji deklaracji względem skali realnych zmian.
Tworzenie wariantów narracyjnych dostosowanych do różnych grup odbiorców jest obszarem, w którym AI bywa kusząca, a jednocześnie ryzykowna. W instytucji kultury wariantowanie języka musi być sprzężone z odpowiedzialnością: uproszczenie nie może spłaszczać sensów, a różnicowanie nie może prowadzić do nierównego dostępu do wiedzy. AI może jednak wspierać tworzenie wariantów roboczych: wersji krótszych, wersji łatwiejszych językowo, wersji dla osób o różnym poziomie kompetencji kulturowych, wersji dla edukatorów. Kluczowe jest utrzymanie kontroli redakcyjnej i merytorycznej.
Wspieranie zespołów edukacyjnych w pracy nad treściami cyfrowymi obejmuje też zarządzanie zasobem: przygotowanie banku pytań i odpowiedzi, konspektów zajęć, opisów obiektów, a także materiałów dla nauczycieli. AI może pomóc w budowaniu indeksów, tagowaniu i wyszukiwaniu treści wewnątrz instytucji, dzięki czemu materiał edukacyjny działa jako zasób wielokrotnego użytku, a nie produkt jednorazowy.
4. Automatyzacja obiegu informacji i dokumentacji instytucjonalnej
Zastosowania AI w porządkowaniu dokumentacji projektowej i instytucjonalnej są jednym z najbardziej „zielonych” zastosowań w tym module, rozumianych pragmatycznie: redukują czas pracy, redukują liczbę błędów w dokumentacji, wzmacniają pamięć instytucji, a przez to ograniczają powtarzanie tych samych działań w kolejnych projektach. AI może wspierać automatyczne tworzenie spisów dokumentów, kontrolę kompletności teczki projektu, ujednolicanie nazw plików, wykrywanie duplikatów, budowanie streszczeń raportów i protokołów.
Wspieranie procesów archiwizacji i wyszukiwania informacji jest szczególnie ważne w instytucjach, gdzie wiedza o wystawach i decyzjach ginie razem z końcem projektu lub rotacją pracowników. W tym obszarze rośnie znaczenie podejścia polegającego na budowaniu „asystenta wiedzy” opartego o wewnętrzne materiały: polityki, standardy, raporty po wystawie, rejestry decyzji, instrukcje techniczne, listy kontaktów do dostawców i serwisu, katalog zasobów magazynowych. Taki asystent nie musi być rozbudowany technicznie; kluczowe jest to, że pracuje na treści instytucji, a nie na internetowych uogólnieniach. W praktyce jest to narzędzie, które skraca ścieżkę dostępu do wiedzy i ogranicza „puste pytania” krążące w organizacji.
Generowanie podsumowań i zestawień na potrzeby zespołów i zarządzania może dotyczyć: podsumowań spotkań produkcyjnych, podsumowań tygodniowych użytkowania, zestawień usterek, zestawień kosztów materiałów eksploatacyjnych, list ryzyk, list decyzji do zatwierdzenia. AI pomaga tu zwłaszcza w konwersji z języka „spotkania” do języka „działania”: co trzeba zrobić, kto ma właścicielstwo, jaki jest termin, co jest ryzykiem. W zielonym kuratorstwie takie podsumowania mają dodatkową rolę: utrzymują decyzje środowiskowe w obiegu, włączają je w standardowe mechanizmy zarządzania projektem, redukują „zapominanie” o konsekwencjach użytkowania.
Integracja narzędzi AI z codziennym obiegiem informacji w instytucji oznacza, że instytucja tworzy stałe miejsca użycia: jeden format protokołu, jeden format raportu po wystawie, jeden format rejestru decyzji, jeden zestaw wskaźników. AI działa wtedy jako „silnik” obsługujący te formaty: generuje wstępne wersje, wykrywa braki, przygotowuje zestawienia. W przeciwnym razie AI staje się narzędziem indywidualnym, używanym prywatnie przez pracowników, co skutkuje różnicami jakości i brakiem spójności instytucjonalnej.
Znaczenie automatyzacji dla redukcji obciążenia administracyjnego zespołów polega na tym, że administracja w instytucji kultury często rośnie szybciej niż zasoby. AI może przejąć część pracy „formatującej” i „porządkującej”, a czas zespołu przesunąć w stronę pracy merytorycznej. Warunkiem jest przyjęcie zasady: AI obsługuje powtarzalne czynności, a odpowiedzialność merytoryczna pozostaje po stronie ludzi.
5. Ramy etyczne i odpowiedzialne korzystanie z AI w instytucjach kultury
Podstawowe zasady etyczne związane z wykorzystaniem AI w sektorze kultury obejmują prawa człowieka, przejrzystość, odpowiedzialność, niedyskryminację, ochronę danych, bezpieczeństwo, a także wymiar środowiskowy i społeczny. W instytucji kultury dochodzi do tego specyficzny komponent: zaufanie publiczne i rola instytucji jako producenta wiedzy. Dlatego etyka AI w muzeum czy galerii dotyczy nie tylko danych, ale też autorytetu: kto mówi, na jakiej podstawie, jaką jakość gwarantuje instytucja, czy instytucja ujawnia użycie AI w punktach kontaktu z publicznością. Globalne i europejskie ramy etyczne (m.in. UNESCO) wskazują na znaczenie ochrony praw, przejrzystości i ludzkiego nadzoru, a europejskie wytyczne dla kultury rozwijają te wątki wprost w odniesieniu do dziedzictwa i polityk kulturalnych.
Znaczenie przejrzystości procesów analitycznych i decyzyjnych obejmuje dwie sytuacje. Pierwsza dotyczy sytuacji wewnętrznych: zespół powinien wiedzieć, gdzie użyto AI do syntezy danych, podsumowań, klasyfikacji, aby móc wykryć błędy i uprzedzenia. Druga dotyczy sytuacji publicznych: publiczność powinna móc rozpoznać, kiedy wchodzi w interakcję z systemem AI (np. chatbot na stronie, automatyczne odpowiedzi), a instytucja powinna oznaczać syntetyczne treści, jeśli mają charakter informacyjny. W Europie znaczenie przejrzystości wzmacniają przepisy dotyczące obowiązków transparentności w odniesieniu do określonych zastosowań AI.
Relacja między technologią a odpowiedzialnością instytucjonalną wymaga jasnego rozdziału: dostawca narzędzia może odpowiadać za część techniczną, instytucja odpowiada za sposób użycia, kontekst, jakość informacji i skutki dla publiczności. To rozdzielenie jest krytyczne przy narzędziach generatywnych, które mogą „brzmieć pewnie” nawet przy błędach, a w instytucji kultury pewność brzmienia jest częścią autorytetu.
Ochrona danych publiczności i zespołów instytucji jest obszarem, w którym instytucja musi mieć minimalne procedury: klasyfikację danych (co jest wrażliwe, co jest osobowe, co jest wewnętrzne), zasady wprowadzania danych do narzędzi zewnętrznych, zasady anonimizacji, zasady przechowywania i retencji, zasady dostępu. Dobre praktyki i wytyczne regulatorów danych (na przykład w Wielkiej Brytanii) pokazują, że sektor publiczny i instytucje pracujące na danych osobowych muszą traktować AI jako obszar stałej zgodności z zasadami przejrzystości, sprawiedliwości i rozliczalności.
Rola regulacji wewnętrznych w świadomym korzystaniu z narzędzi AI polega na tym, że instytucja powinna mieć krótką, jasną politykę użycia AI, powiązaną z praktykami pracy i ryzykami. Regulacje wewnętrzne powinny obejmować: dozwolone zastosowania, niedozwolone zastosowania, zasady pracy na danych, zasady oznaczania treści, zasady weryfikacji, zasady archiwizacji wyników, zasady odpowiedzialności. Takie regulacje można oprzeć o uznane standardy zarządzania ryzykiem AI (ISO/IEC 23894) oraz ramy ryzyka (NIST AI RMF), upraszczając je do skali instytucji kultury.
Przeglądaj wszystkie