1 sierpnia 2024 r. wszedł w życie europejski akt o sztucznej inteligencji (AI Act) . Celem aktu jest wspieranie odpowiedzialnego rozwoju i wdrażania sztucznej inteligencji w UE.
Dołącz do Watahy – włącz Radio Wataha w wakacje
Ustawa o sztucznej inteligencji weszła w życie
Zaproponowany przez Komisję w kwietniu 2021 r. i zatwierdzony przez Parlament Europejski i Radę w grudniu 2023 r., AI Act odnosi się do potencjalnych zagrożeń dla zdrowia, bezpieczeństwa i praw podstawowych obywateli. Zapewnia deweloperom i wdrażającym jasne wymagania i obowiązki dotyczące konkretnych zastosowań AI, jednocześnie zmniejszając obciążenia administracyjne i finansowe dla przedsiębiorstw.
Przeczytaj również: Historycznie niska cena maksymalna w przedszkolach
Zagrożenie dla podstawowych praw człowieka
Ustawa o sztucznej inteligencji wprowadza jednolite ramy dla wszystkich krajów UE. Oparte są one na przyszłościowej definicji sztucznej inteligencji i podejściu opartym na ryzyku:
- Minimalne ryzyko: większość systemów AI, takich jak filtry antyspamowe i gry wideo wykorzystujące sztuczną inteligencję, nie ma żadnych obowiązków wynikających z ustawy o sztucznej inteligencji, jednak firmy mogą dobrowolnie przyjąć dodatkowe kodeksy postępowania.
- Konkretne ryzyko związane z przejrzystością: systemy takie jak chatboty muszą wyraźnie informować użytkowników, że wchodzą w interakcję z maszyną, a niektóre treści generowane przez sztuczną inteligencję muszą być odpowiednio oznaczone.
- Wysokie ryzyko: systemy sztucznej inteligencji obarczone wysokim ryzykiem, takie jak oprogramowanie medyczne oparte na sztucznej inteligencji lub systemy sztucznej inteligencji wykorzystywane w rekrutacji, muszą spełniać rygorystyczne wymagania, w tym systemy ograniczania ryzyka, wysoką jakość zestawów danych, przejrzyste informacje o użytkownikach, nadzór ludzki itp.
- Niedopuszczalne ryzyko: na przykład systemy sztucznej inteligencji, które umożliwiają rządom lub firmom „ocenę społeczną”, są uważane za wyraźne zagrożenie dla podstawowych praw człowieka i dlatego są zakazane.
UE aspiruje do bycia światowym liderem w dziedzinie bezpiecznej sztucznej inteligencji. Poprzez opracowanie silnych ram regulacyjnych opartych na prawach człowieka i podstawowych wartościach, UE może opracować ekosystem sztucznej inteligencji, który przyniesie korzyści wszystkim. Oznacza to lepszą opiekę zdrowotną , bezpieczniejszy i czystszy transport oraz ulepszone usługi publiczne dla obywateli . Wprowadza innowacyjne produkty i usługi , szczególnie w zakresie energii, bezpieczeństwa i opieki zdrowotnej, a także wyższą produktywność i bardziej wydajną produkcję dla przedsiębiorstw, podczas gdy rządy mogą korzystać z tańszych i bardziej zrównoważonych usług, takich jak transport, energia i gospodarka odpadami.
Przeczytaj również: Spadek sprzedaży nowych samochodów w lipcu
Kodeks postępowania dla dostawców modeli sztucznej inteligencji. AI Act
Niedawno Komisja rozpoczęła konsultacje w sprawie Kodeksu postępowania dla dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI). Kodeks ten, przewidziany przez ustawę AI, będzie dotyczył kluczowych obszarów, takich jak przejrzystość, zasady dotyczące praw autorskich i zarządzanie ryzykiem. Dostawcy GPAI prowadzący działalność w UE, przedsiębiorstwa, przedstawiciele społeczeństwa obywatelskiego, posiadacze praw i eksperci akademiccy są zaproszeni do przesyłania swoich opinii i ustaleń. Zostaną one uwzględnione w nadchodzącym projekcie Kodeksu postępowania dotyczącego modeli GPAI Komisji.
Przepisy dotyczące GPAI wejdą w życie za 12 miesięcy. Komisja spodziewa się sfinalizować Kodeks postępowania do kwietnia 2025 r. Ponadto informacje zwrotne z konsultacji będą również stanowić podstawę pracy Biura ds. AI, które będzie nadzorować wdrażanie i egzekwowanie przepisów ustawy AI dotyczących GPAI.
Polub nas na facebooku i udostępnij innym nasz post
Źródło: Unia Europejska, Zdjęcie: pixabay
Przeczytaj również: Wspólna wyprawa na szczyt Gaustatoppen: Wataha – razem na szlaku