Skip to content

AI Alapok – Etika és veszélyek

Ebben a cikkben egy divatos, közismertebb aspektusból járjuk körbe a mesterséges intelligencia (AI/MI) témakörét. Természetesen a teljes képet itt sem áll módunkban felvázolni, a téma kiterjedtsége és összetettsége miatt csak a felszínt karcolgatjuk.. Lássuk, milyen problémák, kérdések merülnek fel, amikor arról beszélünk, hogy MI és etika.

Szerzői jogok és a felhasznált anyagok

Az AI rendszerek tanításához gyakran használnak fel olyan védett tartalmakat, amik felhasználásához nem járult hozzá azok tulajdnosa. Olyan művek, melyek szerzői jogi védelme még nem járt le, szintén sokszor bekerülnek a tanító anyagba. Művészek művei (képek, zenék, hangok, médiatartalmak stb..) Ez jogi és etikai kérdéseket vet fel.

A szigorúbb szabályozások és rendszerek kidolgozása már sok politikus és vezető programjában megjelent. Elvileg ezek a részben kidolgozott vagy még kidolgozandó törvények, szabályozások fogják biztosítani, hogy az AI rendszerek csak olyan tartalmakat használjanak fel tanulásra, amelyek szerzői jogi státusza egyértelműen tisztázott.

Nyelvi kérdések

Az AI fordítórendszerek gyakran hibáznak, ez pedig félreértésekhez vagy kulturális érzékenységi kérdésekhez vezethet. Az empátia mint olyan, jelenleg nem létező fogalom az LLM-ek számára.

A modellek folyamatos finomítása, emberi felülvizsgálata és többkultúrás validációja a fordítások során hozzájárulhat a fejlődéshez, így talán minimalizálhatóak lesznek a hibákból eredő károk.

Előítéletek és diszkrimináció az adatkészletekben

Az AI rendszerek gyakran az adatkészletekben található előítéleteket tükrözik vissza, ezek “beépülve” a rendszerve eleve diszkriminációhoz vezethetnek (faji, nemi, társadalmi stb.).

Az adatok előzetes szűrése és tisztítása – ma még – elég nehéz feladat, az olyan algoritmusok fejlesztése, amelyek felismerik és csökkentik az előítéletek hatását szintén nagyon nehéz. Gyakran pont ezért alkalmaznak embereket érzékeny tartalmak minősítésére, kiszűrésére.

Adatvédelem és felhasználói adatok biztonsága

Az AI rendszerek nagy mennyiségű adatot használnak, ami adatvédelmi és biztonsági aggályokat vet fel.

A probléma ismert, ennek megoldására alkalmazzák az adatminimalizálást, a titkosítást és olyan technológiák használatát, amelyek lehetővé teszik a felhasználók számára, hogy ellenőrizzék saját adataik kezelését. Elméletben működik a dolog, a gyakorlatban ez egy nagy és bonyolult téma, sajnos sok nehézséggel és kivétellel.

AI rendszerek átláthatatlansága („black box”)

Sok AI döntési folyamata, a bevitt adatokkal történő transzformációja nem átlátható. Ez kérdéseket vet fel a felelősségvállalással kapcsolatban, különösen a kritikus döntések esetében (pl. orvosi diagnózisok, tanácsadó rendszerek). Sokan azt hiszik, az LLM-ek szakértői rendszerek is egyben, pedig ez közel sincs így. Az OpenAI ChatGPT o1 modellje egy jó kísérlet, de nem igazán megbízható (még).

Az átláthatóbb, „explainable AI” (magyarázható AI) fejlesztésével foglalkoznak, amely lehetővé teszi, hogy a döntési folyamatokat könnyebben értelmezhessük, lássuk, mi történik. Még messze van egy olyan intelligencia megjelenése, ami megbízhatóan (vagy legalábbis az embernél megbízhatóbbal) képes lesz érvelésre és döntések meghozatalára.

Munkapiaci hatások és automatizáció

Az AI gyors fejlődése miatt sok munkahelyet, pozíciót gépesítenek, ami társadalmi és gazdasági problémákhoz vezethet.

Oktatási programok és átképzési lehetőségek biztosítása szükséges a munkaerő számára. Ezek által majd alkalmazkodni tudnak a dolgozók az új gazdasági környezethez.

Felelősség kérdése az AI által hozott döntéseknél

Kinek a felelőssége egy AI által hozott rossz döntés? Egy önvezető autó balesete esetén ki a hibás? Ezek nem is olyan egyszerű, komoly etikai kérdések..

Jogi keretek és szabályozások létrehozása csak részben lesz megoldás. Ha majd ezek a szabályok világosan meghatározzák a felelősséget és biztosítják, hogy a technológia fejlesztői és használói egyaránt betartsák az etikai normákat, akkor közelítünk e kérdés megválaszolása felé. Kivételek természetesen mindig lesznek-lehetnek, és pontosan ez az, ami nagyon nehézzé teszi a probléma megoldását.

Deepfake és hamis információk terjesztése

A deepfake technológia lehetőséget ad – már ma is! – hamis videók, képek és egyéb információk készítésére, amelyek manipulálhatják a közvéleményt. Sajnos ezt már a gyakorlatban is alkalmazza sok politikus, közszereplő is.

Felismerő technológiák és rendszerek fejlesztése egy lehetséges fegyver a hamis információk ellen, ezek a rendszerek majd képesek lesznek a hamis tartalmakat felismerni és jelezni.

AI alkalmazása katonai célokra

Az AI használata a fegyverkezésben és katonai döntéshozatalban szintén etikai dilemmákat vet fel, például autonóm fegyverrendszerek használatánál van egy határ, aminek az átlépése már necces lehet.

Nemzetközi szabályozás és egyezmények – amelyek korlátozzák az AI fegyveres célú alkalmazását és biztosítják a biztonságos használatot – lennének szökségesek. Amíg nem minden állam által elismertek ezek a szabályok, addig sajnos jelen lehetnek (valószínűleg vannak is) az ilyen fegyverek a világban.

Felügyelet nélküli AI rendszerek veszélyei

A teljesen autonóm AI rendszerek ellenőrizhetetlenné válhatnak, ha nincs megfelelő felügyeletük. Szinte mindenki ismeri a Terminátor c. filmeket, az azokban történt elég “kockázatos helyzet” reméljük csak utópia..

Folyamatos emberi felügyelet jelenleg az egyetlen biztos – már amennyire az emberi felügyelet biztos lehet ugye (lásd atomerőművek balesetei) – módszer az autonóm rendszerek esetében, hogy elkerüljük a bajt.

AI és a szabad akarat kérdése

Az AI-alapú rendszerek befolyásolhatják az emberek döntéseit (pl. vásárlások, politikai nézetek), ami korlátozhatja az egyének, társadalmi csoportok szabad akaratát. Mint említettük, a politikusok már használnak – mindenféle lelkiismereti aggályok nélkül – ilyen eszközöket.

Az AI alkalmazásának etikailag felelős keretek közé helyezése, hogy ne manipulálja a felhasználók döntéseit nehéz ügy.

AI megfigyelési célokra való használata

Az AI használata megfigyelési rendszerekben, például arcfelismerés céljából, súlyosan korlátozhatja a magánéletet és a személyes szabadságot. Sokat hallani manapság a londoni Blade Runnerekről.

Algoritmikus elfogultság a toborzási folyamatokban

Az AI rendszerek az adatokban található elfogultságokat tükrözhetik a munkaerő-felvételnél, ami hátrányos megkülönböztetéshez vezethet.

A toborzási algoritmusok rendszeres felülvizsgálata és újrakalibrálása segíthet, hogy elkerüljék a HR-esek a gépekkel karöltve a kiválasztásnál az előítéleteket.

Emberi interakciók mesterséges helyettesítése

Az AI elterjedése mellett (is) egyre kevesebb lesz a nem online emberi interakció, ami az empátia és a szociális kapcsolatok eróziójához vezet. Mobilon már így is “furán” kommunikálunk, sok dolog elveszik a mindennapi, sokévezredes megszokott formákból sajnos.

Az AI rendszerek fejlesztése során figyelembe kell venni az emberi kapcsolatok fontosságát, és az emberi interakciókat nem szabad teljesen háttérbe szorítani. De vajon hogyan működik ez majd a gyakorlatban?

Amennyiben szeretne a témában tanulni, megoldásra van szüksége, üzemeltetési problémája van vagy egyedi informatikai témában segítségre van szüksége, keressen fel.

Képek:

Tingey Injury Law Firm / Unsplash

Sushil Nash / Unsplash

Victor / Unsplash