Rozporządzenie AI Act. Jak przygotować firmy do zmian?

Email
WhatsApp
LinkedIn
Print

Parlament Europejski przyjął rozporządzenie dotyczące sztucznej inteligencji (Artificial Intelligence Act). Nowe regulacje umożliwiają tworzenie środowiska prawnego, które z jednej strony wspiera rozwój AI, a z drugiej zapewnia poszanowanie praw człowieka i minimalizuje ryzyko dyskryminacji.

Sztuczna inteligencja wyznacza kierunek zmian w świecie biznesu. Firmy stoją przed wyzwaniem adaptacji i wykorzystania potencjału tej przełomowej technologii. Kluczowe jest utrzymanie tempa konkurencji w obszarze cyfryzacji i automatyzacji, przy jednoczesnym zapewnieniu bezpieczeństwa.

Wniosek legislacyjny dotyczący rozporządzenia w sprawie sztucznej inteligencji Komisja Europejska złożyła w kwietniu 2021 roku. W grudniu 2023 roku Parlament Europejski, Rada i Komisja Europejska wypracowały kompromis dotyczący głównych założeń tego dokumentu. 13 marca 2024 roku Parlament Europejski przyjął rozporządzenie w sprawie AI. Nowe przepisy wprowadzają kategorię zakazanych praktyk w zakresie sztucznej inteligencji, w tym stosowanie technik podprogowych oraz rozwiązań dyskryminujących określone grupy osób. Zabronione będzie także wykorzystywanie systemów AI do śledzenia stylu życia obywateli.

Rozporządzenie AI Act stanowi pierwszy na świecie kompleksowy dokument regulujący obszar sztucznej inteligencji. Jego celem jest stworzenie solidnych ram prawnych, które zapewnią bezpieczne i etyczne wykorzystanie systemów AI, chroniąc Europejczyków przed negatywnymi skutkami jej rozwoju. Ostatecznym celem jest budowanie powszechnego zaufania do tej technologii, która niesie ze sobą ogromny potencjał rozwoju zarówno dla jednostek, jak i całych organizacji.

Co warto wiedzieć o założeniach rozporządzenia o sztucznej inteligencji?

Rozporządzenie AI Act wprowadza szereg istotnych regulacji dotyczących sztucznej inteligencji. Oto kluczowe założenia, które warto znać:

  1. Harmonogram wejścia w życie:
  • Publikacja: Rozporządzenie wejdzie w życie 20 dni po publikacji w Dzienniku Urzędowym Unii Europejskiej.
  • Pełne obowiązywanie: Przepisy będą w pełni obowiązywać 36 miesięcy po opublikowaniu, czyli w pierwszej połowie 2027 roku.
  • Wczesne wdrożenie: Większość obowiązków regulacyjnych będzie musiała być spełniana już w pierwszej połowie 2026 roku.
  • Systemy wysokiego ryzyka: Ograniczenia dotyczące systemów AI o wysokim ryzyku wejdą w życie sześć miesięcy po rozpoczęciu obowiązywania rozporządzenia.
  • Systemy ogólnego przeznaczenia: Zasady dotyczące wykorzystywania systemów AI ogólnego przeznaczenia zaczną obowiązywać po 12 miesiącach.

 

  1. Zakres definicji AI:
  • Definicja sztucznej inteligencji zawarta w unijnym akcie prawnym obejmuje szeroki zakres technologii i systemów, co będzie miało znaczący wpływ na funkcjonowanie firm.

 

  1. Klasyfikacja ryzyka:
  • Niedopuszczalne ryzyko: Systemy AI, które są zakazane, np. te stosujące techniki podprogowe czy dyskryminujące grupy osób.
  • Wysokie ryzyko: Systemy AI, które mogą być używane, ale podlegają surowym ograniczeniom. Ograniczenia dotyczą zarówno użytkowników, jak i dostawców tych systemów.
  • Ograniczone i minimalne ryzyko: Systemy AI, które mają mniej rygorystyczne wymagania regulacyjne.

 

  1. Obowiązki dostawców i użytkowników:
  • Dostawcy: Podmioty tworzące systemy AI, w tym organizacje robiące to na własny użytek, muszą przestrzegać surowych norm i standardów.
  • Użytkownicy: Organizacje korzystające z systemów AI również muszą spełniać określone wymagania regulacyjne.

 

  1. Rola organizacji:
  • Ważne jest zrozumienie, że organizacja może pełnić zarówno rolę użytkownika, jak i dostawcy systemów AI, co nakłada na nią podwójne obowiązki w zakresie zgodności z nowymi przepisami.

 

Kluczowe działania organizacji w perspektywie średnio- i długoterminowej

  1. Prognozowanie wpływu nowych regulacji na działalność organizacji
  • Analiza regulacji: Ocena, jak nowe przepisy wpłyną na funkcjonowanie firmy.
  • Transparentność: Utrzymywanie przejrzystości działań i budowanie zaufania klientów.
  • Dialog branżowy: Prowadzenie otwartego dialogu z innymi podmiotami z branży.
  • Strategia adaptacyjna: Dostosowanie strategii firmy do nowych wymogów prawnych, aby lepiej przewidywać przyszłe zmiany.
  1. Poszerzanie wiedzy na temat etycznego wykorzystywania sztucznej inteligencji
  • Szkolenia z AI: Planowanie i organizowanie szkoleń dla pracowników dotyczących etycznego wykorzystywania AI.
  • Zespół ds. etyki i zgodności: Utworzenie dedykowanego zespołu odpowiedzialnego za zapewnienie zgodności z normami etycznymi i wymogami legislacyjnymi.
  1. Wykorzystywanie zaufanych systemów AI już na wczesnych etapach realizacji projektów
  • Zaufane technologie: Wdrażanie sprawdzonych i zaufanych systemów AI od początku realizacji projektów.
  • Regularne audyty: Przeprowadzanie regularnych audytów i aktualizacji używanej technologii, aby zapewnić jej zgodność z najnowszymi standardami.
  • Priorytet etyki: Zachowanie zgodności z zasadami etyki w procesach wspierania innowacyjnych rozwiązań opartych na AI.

Podejmowanie tych działań pomoże organizacjom nie tylko dostosować się do nowych regulacji, ale również wzmocnić pozycję na rynku poprzez etyczne i transparentne podejście do technologii AI.

Related News

Receive our Tax and Legal news every month

Subscribe to our monthly digest of our latest tax and legal news published in our website. 

Alumni account