{"id":589,"date":"2024-03-15T19:52:13","date_gmt":"2024-03-15T19:52:13","guid":{"rendered":"https:\/\/decodelaw.pl\/?post_type=baza-wiedzy&#038;p=589"},"modified":"2024-03-15T20:12:23","modified_gmt":"2024-03-15T20:12:23","slug":"nowe-prawo-ue-dla-ai-cel-klasyfikacja-ryzyka-wplyw-na-biznes-i-globalne-implikacje","status":"publish","type":"baza-wiedzy","link":"https:\/\/decodelaw.pl\/en\/baza-wiedzy\/nowe-prawo-ue-dla-ai-cel-klasyfikacja-ryzyka-wplyw-na-biznes-i-globalne-implikacje\/","title":{"rendered":"Nowe prawo UE dla AI: Cel, klasyfikacja ryzyka, wp\u0142yw na biznes i globalne implikacje."},"content":{"rendered":"<p>Parlament Europejski uchwali\u0142 nowe prawo dla sztucznej inteligencji, kt\u00f3re ma wej\u015b\u0107 w \u017cycie jeszcze w 2024 roku. W zwi\u0105zku z tym firmy b\u0119d\u0105 zobowi\u0105zane do dostosowania si\u0119 do nowych wymaga\u0144 prawnych, kt\u00f3re reguluj\u0105 projektowanie, rozw\u00f3j i u\u017cytkowanie system\u00f3w AI. Poni\u017cej odpowiadam na kilka pyta\u0144 o AI Akt.<\/p>\n<p><strong><em>Jakie s\u0105 g\u0142\u00f3wne cele AI Akt ?<\/em><\/strong><\/p>\n<p>Nowe rozporz\u0105dzenie Unii Europejskiej dotycz\u0105ce sztucznej inteligencji (AI Akt) ma na celu zbudowanie standard\u00f3w dla rynku wewn\u0119trznego. Wprowadza one jednolite zasady dotycz\u0105ce wprowadzania system\u00f3w AI do u\u017cytku, zakazuj\u0105 niekt\u00f3rych praktyk zwi\u0105zanych z AI i okre\u015bla szczeg\u00f3lne wymagania dla system\u00f3w AI, kt\u00f3re mog\u0105 stanowi\u0107 wysokie ryzyko dla spo\u0142ecze\u0144stwa. Dostawcy i u\u017cytkownicy system\u00f3w AI b\u0119d\u0105 musieli zadba\u0107 o to, aby osoby w ich imieniu obs\u0142uguj\u0105ce te systemy posiada\u0142y odpowiedni\u0105 wiedz\u0119 na temat technologii. Regulacja ta ma wi\u0119c na celu z jednej strony budowanie zaufania do sztucznej inteligencji, a z drugiej strony ma s\u0142u\u017cy\u0107 zapewnieniu cz\u0142owiekowi bezpiecze\u0144stwa.<\/p>\n<p><strong><em>Jak AI Akt klasyfikuje r\u00f3\u017cne systemy AI i jakie s\u0105 przewidziane regulacje dla poszczeg\u00f3lnych kategorii?<\/em><\/strong><\/p>\n<p>AI Akt klasyfikuje systemy sztucznej inteligencji na podstawie poziomu ryzyka, jaki mog\u0105 one stwarza\u0107 dla spo\u0142ecze\u0144stwa. Zasadniczo dzieli je na cztery kategorie: niedopuszczalne ryzyko, wysokie ryzyko, ograniczone ryzyko, niskie ryzyko. Im wy\u017cszy stopie\u0144 ryzyka tym bardziej szczeg\u00f3\u0142owe i rygorystyczne s\u0105 wymogi prawne. Systemy o poziomie ryzyka niedopuszczalnym s\u0105 ca\u0142kowicie zakazane na terenie UE. Systemy wysokiego ryzyka musz\u0105 zapewni\u0107 zgodno\u015b\u0107 z wymaganiami dotycz\u0105cymi m.in. oceny ryzyka, jako\u015bci danych, dokumentacji i zapewnienia nadzoru cz\u0142owieka. Pozosta\u0142e systemy, w zale\u017cno\u015bci od ich konkretnego zastosowania i potencjalnego wp\u0142ywu na u\u017cytkownik\u00f3w, podlegaj\u0105 wymaganiom zwi\u0105zanym z przejrzysto\u015bci\u0105, a tak\u017ce podlegaj\u0105 obowi\u0105zkowi informowania u\u017cytkownik\u00f3w o wchodzeniu w interakcj\u0119 z systemem AI.<\/p>\n<p><strong><em>Jaki wp\u0142yw AI Akt na ma\u0142e i \u015brednie przedsi\u0119biorstwa?<\/em><\/strong><\/p>\n<p>Ma\u0142e i \u015brednie przedsi\u0119biorstwa mog\u0105 napotka\u0107 wyzwania zwi\u0105zane z odpowiedzialno\u015bci\u0105 dostosowania si\u0119 do regulacji AI Akt i zapewnienia compliance swojej dzia\u0142alno\u015bci. W szczeg\u00f3lno\u015bci ta sytuacja mo\u017ce mie\u0107 miejsce w zwi\u0105zku z u\u017cytkowaniem lub rozwijaniem system\u00f3w AI o wysokim ryzyku, co wi\u0105\u017ce si\u0119 z wymaganiami m.in. przeprowadzenia oceny ryzyka, zapewnienia odpowiedniej dokumentacji i wdro\u017cenia \u015brodk\u00f3w bezpiecze\u0144stwa. Ponadto w celu dostosowania si\u0119 do wyznaczonych standard\u00f3w takich jak, standard sztucznej inteligencji godnej zaufania, czy odpowiedzialnego jej wykorzystywania, ka\u017cde z przedsi\u0119biorstw korzystaj\u0105ce z dobrodziejstw jakie przynosi AI, powinno wdro\u017cy\u0107 odpowiednie mechanizmy zarz\u0105dzania sztuczn\u0105 inteligencj\u0105 w organizacji (<em>governance<\/em>). Istniej\u0105 r\u00f3wnie\u017c kwestie etyczne, kt\u00f3re u\u017cytkownicy AI powinni rozwa\u017ca\u0107 nawet poza obszarami regulowanymi przez AI Akt. Samo dostosowanie si\u0119 do norm prawnych cz\u0119sto mo\u017ce okaza\u0107 si\u0119 niewystarczaj\u0105ce dlatego konieczne oka\u017c\u0105 si\u0119 praktyczne rozwi\u0105zania w zakresie etyki. Post\u0119powanie etyczne lub nieetyczne mo\u017ce bowiem mie\u0107 znacz\u0105cy wp\u0142yw na wizerunek firmy i dalsze jej funkcjonowanie.<\/p>\n<p><strong><em>Jaki wp\u0142yw ma AI Akt na kontekst mi\u0119dzynarodowy?<\/em><\/strong><\/p>\n<p>AI Akt ustanawia standardy dla odpowiedzialnego, przejrzystego i zorientowanego na cz\u0142owieka tworzenia i wykorzystania AI. Rozporz\u0105dzenie posiada potencja\u0142, by sta\u0107 si\u0119 wzorcem globalnym, zach\u0119caj\u0105c inne kraje do przyj\u0119cia podobnych standard\u00f3w (tzw. \u201e<em>Brussels Effect<\/em>&#8222;). W kontek\u015bcie mi\u0119dzynarodowym, istnieje potrzeba osi\u0105gni\u0119cia porozumie\u0144 dotycz\u0105cych bezpiecze\u0144stwa system\u00f3w AI oraz zasad i obszar\u00f3w ich stosowania, by stawi\u0107 czo\u0142a wyzwaniom takim jak zmiany na rynku pracy, w tym eliminacja niekt\u00f3rych stanowisk i tworzenie nowych, oraz konieczno\u015b\u0107 dostosowania pracownik\u00f3w do tych zmian. Ponadto, istotne jest zwr\u00f3cenie uwagi, na ryzyka dyskryminacji przez AI i poszukiwanie metod jej zapobiegania. Odpowiedni\u0105 wag\u0119 pa\u0144stwa i organizacje powinny skupi\u0107, na problemie degradacji ludzkich kompetencji w wyniku zale\u017cno\u015bci od AI.<\/p>\n<p>W kontek\u015bcie mi\u0119dzynarodowej konkurencji istniej\u0105 r\u00f3wnie\u017c ryzyka wymagaj\u0105ce dog\u0142\u0119bnej analizy. Skuteczne tworzenie i wykorzystanie AI wymaga trzech element\u00f3w: danych, technologii i talent\u00f3w ludzkich, kt\u00f3rych obecnie posiada niewiele pa\u0144stw na \u015bwiecie. Nie mo\u017cna wiec dopu\u015bci\u0107, aby przewaga technologiczna zosta\u0142a wykorzystana w spos\u00f3b nieodpowiedni przez co mog\u0142aby zaszkodzi\u0107 niekt\u00f3rym pa\u0144stwom b\u0105d\u017a grupom spo\u0142ecznym.<\/p>","protected":false},"featured_media":0,"template":"","tags":[],"meta_box":[],"_links":{"self":[{"href":"https:\/\/decodelaw.pl\/en\/wp-json\/wp\/v2\/baza-wiedzy\/589"}],"collection":[{"href":"https:\/\/decodelaw.pl\/en\/wp-json\/wp\/v2\/baza-wiedzy"}],"about":[{"href":"https:\/\/decodelaw.pl\/en\/wp-json\/wp\/v2\/types\/baza-wiedzy"}],"wp:attachment":[{"href":"https:\/\/decodelaw.pl\/en\/wp-json\/wp\/v2\/media?parent=589"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/decodelaw.pl\/en\/wp-json\/wp\/v2\/tags?post=589"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}