12.05.2026
Świat się rozwija, rozwijają się nowe technologie, ale rozwijają się również regulacje w organizacjach. Prawo powszechnie obowiązujące, także prawo Unii Europejskiej narzuca coraz to nowe obowiązki i przyjmowanie coraz to nowych regulacji. Niektóre organizacje również przyjmują coraz to nowe regulacje. Dzieje się tak zarówno w biznesie, w organizacjach pozarządowych, a także w różnych dziedzinach życia i gospodarki np. w bankowości czy w sporcie.
W Polsce jak popatrzymy na sport i przepisy poszczególnych polskich związków sportowych, to wiele często pierwszych w środowisku sportowym regulacji przyjmuje Polski Związek Piłki Nożnej. Zarząd PZPN przyjął ostatnio uchwałę o pełnej nazwie: „Uchwała nr II/30 z dnia 19 lutego 2026 roku Zarządu Polskiego Związku Piłki Nożnej w sprawie przyjęcia „Polityki korzystania ze sztucznej inteligencji w Polskim Związku Piłki Nożnej”” (dalej: Uchwała).
To że świat stoi przed coraz to nowymi wyzwaniami z zakresu it, komputerów, technologii mobilnych, mediów społecznościowych co jakiś czas nam pokazuje, że jest już co nowego, co wcale nie musi przynosić tylko pożytku, a może mieć wiele negatywnych aspektów, np. w obszarze braku akceptacji, czy hejtu.
Sztuczna inteligencja i różne mechanizmy AI pozwalają na tworzenie coraz to nowych rzeczy, ale przy okazji – i to jest nieuchronne – mogą pojawiać się informacje nieprawdziwe, fejki, do tego jeszcze niosące negatywne przesłania, zniesławiające, znieważające organizacje oraz osoby z tych organizacji. Łatwo stworzyć także wobec ucznia, dziecka, kolegi z klasy, ze szkoły, z drużyny nieprawdziwy materiał narażający na hejt, mogący prowadzić do braku akceptacji, braku sensu życia, utraty zdrowia, a nawet życia.
Do tego dochodzi też coraz to powszechniejsze profilowanie reklam, ustawianie materiałów promocyjnych pod konkretne grupy i tak dalej. Tutaj także istnieje duże zagrożenie i potrzeba wprowadzania regulacji ochronnych, także do sportu. Uchwałą, o której już wspomniałem Zarząd PZPN przyjął „Politykę korzystania ze sztucznej inteligencji w Polskim Związku Piłki Nożnej (PZPN)”.
Cel i zakres
Niniejsza polityka określa zasady etycznego, zgodnego z prawem i bezpiecznego korzystania ze sztucznej inteligencji (AI) w Polskim Związku Piłki Nożnej (PZPN). Obowiązuje ona wszystkich pracowników, współpracowników, członków organów PZPN, kontraktorów i osoby pełniące funkcje społeczne w strukturach PZPN, które korzystają z narzędzi lub usług opartych na AI lub mają wpływ na proces ich projektowania, wdrażania, utrzymania lub nadzorowania takich usług. Zakres Polityki obejmuje w szczególności: systemy oparte na uczeniu maszynowym (np. generatory kodu, chatboty, modele predykcyjne, a także infrastruktury udostępniające kontekst modelowi (np. serwery Model Context Protocol (MCP)) oraz inne mechanizmy integrujące modele AI z zasobami PZPN (repozytoria kodu, bazy danych, systemy wewnętrzne) [pkt 1 Uchwały].
Polityka ma na celu:
Po pierwsze, zapobieganie niewłaściwemu wykorzystaniu AI poprzez określenie zakazanych praktyk i dopuszczalnych zastosowań, oraz wymogów w zakresie nadzoru ludzkiego;
Po drugie, ochronę prywatności, danych osobowych, tajemnicy przedsiębiorstwa i informacji niejawnych PZPN;
Po trzecie, zapewnienie jakości, bezpieczeństwa i integralności wytwarzanego kodu, procesów decyzyjnych i treści generowanych z wykorzystaniem AI;
Po czwarte, wyjaśnienie procedur zatwierdzania rozwiązań zapewnienie zgodności z prawem Unii Europejskiej w zakresie wdrażania i użytkowania systemów sztucznej inteligencji w Unii Europejskiej zgodnie z Rozporządzeniem (UE) 2024/1689 (…) (AI Act), stosowane łącznie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych (RODO), oraz właściwymi przepisami sektorowymi;
Wreszcie po piąte, monitorowanie działania AI oraz reagowania na incydenty, naruszenia bezpieczeństwa lub skargi związane ze stosowaniem AI w PZPN.
W pkt 3 Uchwały zawarte zostały też kluczowe definicje z tego zakresu.
I tak, Sztuczna inteligencja (AI) to system oparty na uczeniu maszynowym, logice lub statystyce, zaprojektowany do generowania wyników (prognoz, zaleceń, decyzji) wpływających na środowisko, w którym działa. Z kolei System AI to oprogramowanie wykorzystujące sztuczną inteligencję, które na podstawie danych potrafi samodzielnie (w pewnym zakresie) tworzyć treści, przewidywać wyniki, proponować rozwiązania lub podejmować decyzje wpływające na otoczenie (np. generowanie tekstów, analiz meczowych, podsumowań, statystyk oraz kluczowych akcji, generowanie newsów meczowych, opisów turniejów czy systemów wspierających dobór obciążeń treningowych na podstawie danych GPS i historii urazów). Wreszcie, np. Zarządzanie AI/system zarządzania AI (AIMS) to zestaw zasad, procesów i struktur organizacyjnych służących odpowiedzialnemu wdrażaniu, eksploatacji i nadzorowi systemów AI w organizacji, zgodnie z ISO/IEC 42001.
W pkt 5 Uchwały uregulowano poziomy ryzyka i zakazane praktyki (AI Act). Zarządzanie ryzykiem, a zwłaszcza ryzykiem niezgodności jest już na porządku dziennym w nowoczesnych organizacjach.
Uchwała określa poziomy tego ryzyka:
Ryzyko niedopuszczalne – AI Act zakazuje określonych zastosowań systemów AI, które stwarzają niedopuszczalne zagrożenie dla bezpieczeństwa, praw i wolności ludzi. Należą do nich w szczególności: manipulowanie zachowaniem ludzi w sposób powodujący istotną szkodę (w tym wykorzystywanie podatności osób np. dzieci, osób z niepełnosprawnościami), prognozowanie prawdopodobieństwa popełnienia przestępstwa wyłącznie na podstawie profilu osoby lub grupy, niezgodne z prawem, masowe pozyskiwanie danych biometrycznych z Internetu lub nagrań monitoringu w celu tworzenia baz danych, rozpoznawanie emocji w miejscu pracy i w innych wskazanych kontekstach, kategoryzacja biometryczna osób na podstawie wrażliwych cech (np. pochodzenie, religia, orientacja seksualna), zdalna identyfikacja biometryczna „na żywo” w przestrzeni publicznej co do zasady (poza wyjątkami ściśle określonymi w przepisach).
Ryzyko wysokie – systemy, które mogą znacząco wpływać na zdrowie, bezpieczeństwo lub prawa podstawowe osób (np. narzędzia wspierające decyzje rekrutacyjne, systemy decydujące o dostępie do usług finansowych, identyfikacja biometryczna). Podlegają rygorystycznym obowiązkom, m.in. w zakresie zarządzania ryzykiem zapewnienia wysokiej jakości danych, pełnej dokumentacji technicznej, przejrzystości, nadzoru ludzkiego oraz bezpieczeństwa i odporności cybernetycznej.
Ryzyko ograniczone – to systemy AI, które nie wchodzą w katalog wysokiego ryzyka, ale wywołują obowiązek informowania, co do zasady nie decydują o kluczowych prawach i sytuacji użytkownika, ale wymagają zwiększonej transparentności. Użytkownicy muszą być poinformowani, że wchodzą w interakcję z AI (np. chatbot), że treść (tekst, obraz, wideo) została wygenerowana przez AI, w przypadku tzw. deepfake – treść jest sztucznie wygenerowana lub zmodyfikowana. Systemy te nie podlegają pełnemu reżimowi „wysokiego ryzyka”, ale muszą spełnić określone obowiązki informacyjne.
Ryzyko minimalne – aplikacje, które nie stanowią znaczącego ryzyka dla praw i wolności osób (np. filtry antyspamowe, proste rekomendacje treści); nie wymagają dodatkowych ograniczeń. Dla tych systemów AI Act nie przewiduje dodatkowych, szczególnych obowiązków poza ogólnymi zasadami prawa Unii.
Warto jeszcze zwrócić uwagę na zawarte w pkt. 5.2 Uchwały – „Zakazane zastosowania w PZPN”. „W oparciu o AI Act i niniejszą politykę zabrania się w PZPN wykorzystywania systemów AI do manipulacji, wywierania nieuczciwego wpływu lub wprowadzania w błąd”, w szczególności poprzez:
- generowanie lub rozpowszechnianie fałszywych informacji (dezinformacji) dotyczących rozgrywek, decyzji sędziowskich, wyników meczów, stanu zdrowia zawodników, transferów, działań władz PZPN lub innych organów piłkarskich;
- tworzenie deepfake’ów, w tym materiałów audio/wideo, w których w sposób nieprawdziwy przypisuje się zawodnikom, trenerom, sędziom, działaczom lub przedstawicielom PZPN określone wypowiedzi, gesty lub zachowania (np. „wypowiedź” zawodnika, której nigdy nie udzielił);
- stylizowanie komunikatów generowanych przez AI na oficjalne komunikaty PZPN lub jego władz w sposób mogący wprowadzać w błąd co do ich pochodzenia (np. posty, maile, grafiki wyglądające jak oficjalne, ale przygotowane w celu wywołania określonej reakcji);
- ukrywanie faktu korzystania z AI w komunikacji skierowanej do zawodników, rodziców, trenerów, sędziów, kibiców lub pracowników, jeżeli sposób użycia narzędzia AI może wpływać na ich decyzje lub zachowanie (np. chatbot podający się za pracownika PZPN w sytuacjach istotnych prawnie lub organizacyjnie);
- wykorzystywanie podatności lub szczególnej sytuacji osób (w szczególności dzieci i młodzieży, osób z niepełnosprawnościami, osób zależnych sportowo lub finansowo), poprzez stosowanie komunikatów generowanych przez AI zaprojektowanych tak, aby w sposób nieuczciwy skłaniać je do określonych decyzji (np. rezygnacji z przysługujących im praw, podjęcia ryzykownych działań zdrowotnych czy finansowych);
- profilowanie i targetowanie przekazów z wykorzystaniem AI w celu wywoływania silnych reakcji emocjonalnych lub polaryzacji wśród kibiców, zawodników czy trenerów (np. agresywne kampanie wzmacniające wrogość wobec określonych osób lub klubów).
Uchwała zabrania także społecznej punktacji i profilowania osób w oparciu o zachowanie, sytuację ekonomiczną, zdrowotną, pochodzenie etniczne, orientację seksualną, religię lub inne cechy wrażliwe. w sposób prowadzący do niesprawiedliwego lub nieproporcjonalnego traktowania w innych, niepowiązanych kontekstach (np. odmowa świadczeń, dostępu do usług, akredytacji, możliwości udziału w wydarzeniach).
Zabronione jest automatyczne ocenianie ryzyka popełnienia przestępstw lub wykroczeń oraz wykorzystywania AI do predykcji zachowań przestępczych.
Kolejne zakazane użycia sztucznej inteligencji dotyczą w świetle Uchwały:
- Masowego zbierania danych biometrycznych lub ich analiz (np. rozpoznawania twarzy) w celu identyfikacji kibiców bez wyraźnej podstawy prawnej i zgody organów odpowiedzialnych., dalej tworzenia lub rozszerzania baz danych do rozpoznawania twarzy poprzez nieukierunkowane pozyskiwanie obrazów z internetu, mediów społecznościowych, nagrań z monitoringu wizyjnego lub innych źródeł, w szczególności w celu późniejszej identyfikacji kibiców, zawodników lub pracowników.
- Rozpoznawania emocji i kategoryzacji biometrycznej w miejscu pracy i edukacji (np. monitoring treningów poprzez analizę mimiki).
- Wykorzystywania AI do biometrycznej kategoryzacji osób w celu wnioskowania o ich pochodzeniu rasowym lub etnicznym, poglądach politycznych, przekonaniach religijnych lub światopoglądowych, stanie zdrowia, orientacji seksualnej lub innych cechach wrażliwych, niezależnie od kontekstu (w tym wobec kibiców, zawodników, sztabów, pracowników i wolontariuszy).
- Innych praktyk zabronionych przez AI Act (np. wykorzystywania AI do eksploatacji podatności dzieci lub innych osób znajdujących się w sytuacji szczególnej słabości (np. ze względu na wiek, niepełnosprawność, zależność ekonomiczną lub społeczną) w sposób mogący istotnie zniekształcić ich zachowanie ze szkodą dla nich.
O ogólnych zasadach korzystania z AI w PZPN będzie jeszcze pewnie mowa, w którymś z kolejnych artykułów.
E-sport
12.05.2026
Sporty indywidualne
06.05.2026
Sporty walki
28.04.2026
15.04.2026
29.10.2025
19.03.2024
03.01.2024
02.08.2023
Portal prawosportowe.pl powstał w 2012 roku i od tego czasu dostarcza czytelnikom wiedzę z zakresu szeroko rozumianego prawa sportowego. Odbiorcami naszych treści są sportowcy amatorzy i profesjonalni, trenerzy, sędziowe, menedżerowie, agenci, działacze organizacji sportowych, sponsorzy. Jesteśmy po to, by pomagać i edukować w sporcie.
Portal od samego początku jest wspierany przez Kancelarię Prawa Sportowego i Gospodarczego DAUERMAN
Zgodnie z art. 13 ust. 1 i ust. 2 Ogólnego rozporządzenia Parlamentu i Rady Unii Europejskiej o ochronie danych osobowych z dnia 27 kwietnia 2016 r. informujemy, iż:
PrawoSportowe.pl Sp. z o.o.
ul. Powstańców Śląskich
53-332 Wrocław
tel. +48 693 672 258
e-mail: bok@prawosportowe.pl
Jeśli potrzebujesz pomocy prawnej w Twojej działalności sportowej, napisz do nas korzystając z poniższego formularza.
Pamiętaj – odległość nie stanowi problemu. Działamy całkowicie on-line.
Przedstaw nam swój problem, a my dokonamy wstępnej bezpłatnej analizy prawnej. Następnie przedstawimy, co możemy wspólnie w tej sprawie zrobić oraz zaproponujemy zasady współpracy. Oczywiście za wszelkie usługi otrzymasz fakturę VAT.
Polityka prywatności PrawoSportowe.pl Sp. z o.o.