Warning: getimagesize(upload/itlawpro/2019/07/AI-Ir%C3%A1nyt%C5%B1-190730.jpg): failed to open stream: No such file or directory in /home/user_1/web_8/web/moduls/content/ContentController.php on line 96
Mesterséges Intelligencia – etikai iránytű - IT jog, informatikai jog, szellemi alkotások joga, adatvédelmi jog -IT jog, informatikai jog, szellemi alkotások joga, adatvédelmi jog, informatikai szerződések szerkesztése, szoftver- és licencszerződések, jogi képviselet

Szakmai blog

Mesterséges Intelligencia – etikai iránytű

2019-07-30 | Adatvédelem, Érdekességek, IT jog

A mesterséges intelligencia (artificial intelligence, AI) területén folytatott kutatások, és ezek eredményeinek felhasználása rendkívüli ütemben felgyorsult az utóbbi években. Számtalan hírt hallhattunk, hogy a tudomány vagy éppen a mindennapi élet újabb területén jelent meg a mesterséges intelligencia. Jelen cikkünkben az AI által működtetett rendszerek, eszközök etikai oldalról történő megközelítését igyekszünk bemutatni.

Idén áprilisban látott napvilágot a mesterséges intelligencia magas szintű szakértői csoport (High-Level Expert Group on Artificial Intelligence, AI HLEG) ún. Etikai iránymutatása, amely nevében is kifejezi, fő funkciója és feladata az, hogy kijelöljön egy jogszabályi kötelező erővel nem rendelkező, ám Európa szerte alkalmazott utat az AI etikus felhasználása területén.

Az AI HLEG egy 52 fős, független szakértőből álló csoport, amelyet 2018 júniusában az Európai Bizottság hívott össze. Tagjai között vannak akadémikusok, egyetemi oktatók, csakúgy, mint a civil társadalom szereplői illetve az ipari terület kiválóságai is. Az ő feladatuk, hogy az Európai Unió mesterséges intelligenciát érintő stratégiájának általános célkitűzéseit szakmai oldalról támogassák. Ez a feladat többek között olyan ajánlások kidolgozását foglalja magába, amelyek az etikai, jogi és társadalmi szempontokat egyesítik a különböző érintett szektorok számára. További célkitűzésként a szervezet különböző kutatások és felmérések elkészítésével is foglalkozik.

Az etikai iránymutatás tükrözi, hogy az Európai Unió célkitűzései között szerepel az etikus, biztonságos és élvonal-beli AI-t használó társadalom. Ezt szem előtt tartva alkotta meg a szakértői csoport az iránymutatását.

Az AI HLEG három fő kritériumot határozott meg, amelyeknek minden mesterséges intelligenciának meg kell felelnie annak érdekében, hogy megbízhatónak legyen tekinthető.

  1. Jogszerűség: A mesterséges intelligenciának meg kell felelnie az összes alkalmazandó jognak és szabályozásnak, valamint szakmai előírásnak.
  2. Etikusság: A mesterséges intelligenciának az alapvető erkölcsi elveknek és értékeknek is eleget kell tennie.
  3. Stabilitás: A mesterséges intelligenciának technikai és társadalmi szempontból egyaránt stabilnak kell lennie, mert az esetleges hibákkal kárt, vagy akár személyi sérülést is okozhat például egy önvezető autó (ahogy korábbi cikkünkben is írtuk).

Ideális esetben ezek a feltételek egyszerre vannak jelen és harmonikusan kiegyenlítik egymást. A három kritérium ilyen megfogalmazásban azonban túl széleskörű, érezhető hogy ebben a formában inkább alapelvi jelleggel kerültek meghatározásra.

Az alapelvek megvalósulásáért konkrét követelményeket fogalmaztak meg a szakértők, amelyeket egy példálózó jellegű listába szedtek össze. Ezek az elvárások az alábbiak:

§ Emberi jelenlét és felügyelet

A mesterséges intelligencia felügyelete segít meggyőződni arról, hogy az emberi autonómia nem veszélyeztetett és egyéb kedvezőtlen hatás bekövetkezése sem várható. Szükséges ez annak érdekében is, hogy az AI feladatának megfelelően segítse az embereket a lehető legjobb döntés meghozásában.

§ Technikai szilárdság és biztonság

E feltételnek az a célja, hogy megelőzze az AI rendszerek működése közben felmerülő károkat, mégpedig úgy, hogy már a tervezéskor, preventív jelleggel számolnak a károkozás lehetőségével.

§ Privát szféra és adatkezelés

Az AI-nek tiszteletben kell tartania a felhasználó által megadott, és a használat alatt összegyűjtött adatait, valamint ezeket megfelelő módon védenie is kell. Az adatgyűjtés a megfelelő működés érdekében, és a károkozás elkerülése miatt szükséges.

§ Átláthatóság

Magában foglalja az adatok és azok felhasználásnak nyomon követhetőségét, a technikai folyamat és az emberi döntés kapcsolatának leírhatóságát, illetve azt, hogy az embereknek joguk van tudni arról, ha egy AI által vezérelt rendszerrel kommunikálnak.

§ Sokféleség, diszkrimináció mentesség és méltányosság

A mesterséges intelligencia által működtetett rendszereknek is tiszteletben kell tartania az egyenlő bánásmód elvét és a hátrányos megkülönböztetés tilalmát. Minden fogyasztónak, résztvevőnek ugyanolyan hozzáférést kell biztosítani, kortól, nemtől, bőrszíntől, illetve egyéb tulajdonságától függetlenül.

§ Társadalmi- és környezeti viszonyok

Az AI megalkotásakor és annak további létszakaszaiban is figyelemmel kell lenni a környezeti és társadalmi igényekre, a fenntartható fejlődés követelményeire.

§ Felelősségre vonás, elszámoltathatóság

Esetleges károkozás vagy egyéb hátrányos következmény bekövetkezte esetére világosan meghatározható kell, hogy legyen a mesterséges intelligencia által végzett tevékenységekért felelős személy vagy szervezet.

Mindezen követelményekből látható tehát, hogy a biztonságos, az emberek, a társadalom és a környezet számára is előnyös és használható mesterséges intelligenciával működtetett rendszerek, eszközök, hálózatok kiépítésére törekszik az Európai Unió. A kérdés csupán az, mikor lehet majd ilyen, vagy ezekhez hasonló elvárásokat jogszabályi/iparági szinten is rögzíteni.

A ChatGPT-vel összefüggő adatvédelmi aggályok - Könnyen hozzáférhetnek az adatainkhoz?

2024-01-05
A ChatGPT-vel összefüggő adatvédelmi aggályok - Könnyen hozzáférhetnek az adatainkhoz?

Az utóbbi időben a vállalatok világszerte generatív mesterséges intelligencia (GenAI) megoldásokat vezettek be, adataik hatékony és egyszerű kezelése és átláthatósága érdekében. Mivel a legtöbb esetben a GenAI-modellnek "hosszú távú memóriával" kell rendelkeznie, szinte minden vállalati megoldáshoz szükség van egy vektoradatbázisra, amelyet a modell futásidőben lekérdezhet a felhasználói kérdés megválaszolásához szükséges kontextus eléréséhez.

Azonban az eddig rendkívül biztonságosnak hitt megoldás egy olyan kellemetlen igazságot rejt, amely hatalmas adatvédelmi aggályokat vethet fel.

Bővebben

Deepfake ellen orvosság - Morgan Freemannel

2023-12-22
Deepfake ellen orvosság - Morgan Freemannel

Kipróbálta már Ön, hogy hogyan nézne ki húsz-harminc évvel később? Esetleg megnézte magát kedvenc filmje főszereplőjeként? (Igen a Puzzlme-re gondolunk!) Ha a válasz igen, akkor már biztos lehet abban, hogy kipróbálta a deepfake technológiát. A kezdetben ártatlan játéknak tűnő technológia mára azonban már a vártnál is nagyobb problémákat hordozhat magában.

Bővebben

Klónozás kapcsán felmerülő jogi problémák

2023-10-10
Klónozás kapcsán felmerülő jogi problémák

10 évvel ezelőtt mutatták be a Black Mirror azt a részét, amelyikben egy nő egy olyan szolgáltatás segítségével klónozza halott volt párját, amely a közösségi médiában közzétett bejegyzéseit és szövegeit elemezve újrateremti a személyiségét. Az epizód 2013-ban még meglehetősen futurisztikusnak tűnt, de éppen a hihető határán volt - elvégre sokan már akkor is kiterjedt digitális lábnyomokat hagytunk magunk mögött a telefonjainkkal és számítógépeinkkel. Most azonban a klónozás valósággá vált?

Bővebben

Állunk rendelkezésére az információs technológiával kapcsolatos jogi kérdések tekintetében!

Kapcsolat