Is kunstmatige intelligentie (AI) gevaarlijk?

Op maandag (Monday)22 mei(May 22) 2023 deelde een geverifieerd Twitter- account genaamd “Bloomberg Feed” een tweet waarin werd beweerd dat er een explosie in het Pentagon had plaatsgevonden , vergezeld(explosion at the Pentagon) van een afbeelding. Als je je afvraagt ​​wat dit met kunstmatige intelligentie (AI) te maken heeft: het beeld was door AI gegenereerd, waarbij de tweet snel viraal ging en een korte dip op de aandelenmarkt veroorzaakte. Het had veel erger kunnen zijn – een duidelijke herinnering aan de gevaren van kunstmatige intelligentie.

Gevaren van kunstmatige intelligentie

Het is niet alleen nepnieuws waar we ons zorgen over moeten maken. Er zijn veel directe of potentiële risico’s verbonden aan AI, van risico’s op het gebied van privacy en veiligheid tot vooringenomenheid en auteursrechtkwesties. We zullen ingaan op enkele van deze gevaren van kunstmatige intelligentie, kijken wat er wordt gedaan om deze nu en in de toekomst te beperken, en vragen ons af of de risico's van AI opwegen tegen de voordelen.

Nepnieuws

Toen deepfakes voor het eerst op de markt kwamen, ontstond de bezorgdheid dat ze met kwade bedoelingen zouden kunnen worden gebruikt. Hetzelfde kan gezegd worden voor de nieuwe golf van AI-beeldgeneratoren(AI image generators) , zoals DALL-E 2 , Midjourney of DreamStudio . Op 28 maart(March 28) 2023 gingen nep- AI-gegenereerde beelden van paus Franciscus(AI-generated images of Pope Francis) in een wit Balenciaga- pufferjack, terwijl hij geniet van verschillende avonturen, waaronder skateboarden en poker spelen, viraal. Tenzij je de afbeeldingen goed bestudeerde, was het moeilijk om deze afbeeldingen van het echte werk te onderscheiden.

Hoewel het voorbeeld met de paus ongetwijfeld een beetje leuk was, was het beeld (en de bijbehorende tweet) over het Pentagon dat allesbehalve. Door AI gegenereerde valse(Fake) beelden hebben de kracht om reputaties te beschadigen, huwelijken of carrières te beëindigen, politieke onrust te creëren en zelfs oorlogen te beginnen als ze door de verkeerde mensen worden gebruikt. Kortom, deze door AI gegenereerde beelden kunnen enorm gevaarlijk zijn als ze worden misbruikt.

Nu AI-beeldgeneratoren gratis beschikbaar zijn voor iedereen en Photoshop een AI-beeldgenerator(Photoshop adding an AI image generator ) aan zijn populaire software toevoegt, is de mogelijkheid om afbeeldingen te manipuleren en nepnieuws te creëren groter dan ooit.

Privacy, beveiliging en hacken

Privacy en veiligheid zijn ook grote zorgen als het gaat om de risico's van AI, waarbij een aantal landen OpenAI's ChatGPT al verbieden . Italië(Italy) heeft het model verboden vanwege privacyoverwegingen, in de overtuiging dat het niet voldoet aan de Europese Algemene Verordening Gegevensbescherming(General Data Protection Regulation) ( AVG(GDPR) ), terwijl de regeringen van China , Noord-Korea(North Korea) en Rusland het verboden uit angst dat het verkeerde informatie zou verspreiden.

Dus waarom zijn we zo bezorgd over privacy als het om AI gaat? AI-apps en -systemen verzamelen grote hoeveelheden gegevens om te leren en voorspellingen te doen. Maar hoe worden deze gegevens opgeslagen en verwerkt? Er bestaat een reëel risico dat datalekken, hacking en informatie in verkeerde handen vallen.

Het zijn niet alleen onze persoonlijke gegevens die gevaar lopen. AI-hacking is een reëel risico – het is nog niet gebeurd, maar als mensen met kwade bedoelingen AI-systemen zouden kunnen hacken, zou dit ernstige gevolgen kunnen hebben. Hackers kunnen bijvoorbeeld zelfrijdende voertuigen besturen, AI-beveiligingssystemen hacken om toegang te krijgen tot zeer veilige locaties en zelfs wapensystemen met AI-beveiliging hacken.

Deskundigen van het Defense Advanced Research Projects Agency ( DARPA ) van het (DARPA)Amerikaanse ministerie(US Department) van Defensie onderkennen deze risico's en werken al aan het DARPA- project 'Guaranteing AI Robustness Against Deception'(Guaranteeing AI Robustness Against Deception) ( GARD ), waarbij het probleem vanaf de basis wordt aangepakt. Het doel van het project is ervoor te zorgen dat weerstand tegen hacking en manipulatie wordt ingebouwd in algoritmen en AI.

Schending van het auteursrecht

Een ander gevaar van AI is inbreuk op het auteursrecht. Dit klinkt misschien niet zo ernstig als sommige andere gevaren die we hebben genoemd, maar door de ontwikkeling van AI-modellen zoals GPT-4 loopt iedereen een verhoogd risico op inbreuk.

Elke keer dat u ChatGPT vraagt ​​om iets voor u te maken (of dat nu een blogpost over reizen is of een nieuwe naam voor uw bedrijf), geeft u ChatGPT informatie die het vervolgens gebruikt om toekomstige vragen te beantwoorden. De informatie die het naar u terugstuurt, kan inbreuk maken op het auteursrecht van iemand anders. Daarom is het zo belangrijk om een ​​plagiaatdetector te gebruiken en alle door AI gemaakte inhoud te bewerken voordat u deze publiceert.

Maatschappelijke en datavooroordelen

AI is niet menselijk en kan dus niet bevooroordeeld zijn, toch? Fout. Mensen en data worden gebruikt om AI-modellen en chatbots te trainen , wat betekent dat bevooroordeelde gegevens of persoonlijkheden zullen resulteren in een bevooroordeelde AI. Er zijn twee soorten vooroordelen bij AI: maatschappelijke vooroordelen en datavooroordelen.

Wat gebeurt er als deze vooroordelen onderdeel worden van AI, gezien de vele vooroordelen die aanwezig zijn in de dagelijkse samenleving? De programmeurs die verantwoordelijk zijn voor het trainen van het model kunnen bevooroordeelde verwachtingen hebben, die vervolgens hun weg vinden naar AI-systemen.

Of de gegevens die worden gebruikt om een ​​AI te trainen en te ontwikkelen, kunnen onjuist, bevooroordeeld of te kwader trouw zijn verzameld. Dit leidt tot databias, die net zo gevaarlijk kan zijn als maatschappelijke bias. Als een systeem voor gezichtsherkenning bijvoorbeeld wordt getraind met behulp van voornamelijk de gezichten van blanke mensen, kan het moeite hebben om die van minderheidsgroepen te herkennen, waardoor de onderdrukking in stand wordt gehouden.

Robots nemen onze banen over

De ontwikkeling van chatbots zoals ChatGPT en Google Bard heeft een hele nieuwe zorg rond AI opgeroepen: het risico dat robots onze banen zullen innemen. We zien nu al dat schrijvers in de technologie-industrie worden vervangen door AI, dat softwareontwikkelaars bang zijn dat ze hun baan zullen verliezen aan bots, en dat bedrijven ChatGPT gebruiken om(ChatGPT) bloginhoud en sociale media-inhoud te creëren in plaats van menselijke schrijvers in te huren.

Volgens het The Future of Jobs Report 2020 van het World Economic Forum(World Economic Forum’s The Future of Jobs Report 2020) zal AI in 2025 naar verwachting wereldwijd 85 miljoen banen vervangen. Zelfs als AI de schrijvers niet vervangt, wordt het al door velen als hulpmiddel gebruikt. Degenen met banen die het risico lopen te worden vervangen door AI moeten zich mogelijk aanpassen om te overleven. Schrijvers kunnen bijvoorbeeld AI-prompt-ingenieurs worden, waardoor ze met tools als ChatGPT kunnen werken voor het maken van inhoud in plaats van te worden vervangen door deze modellen(ChatGPT) .

Toekomstige potentiële AI-risico's

Dit zijn allemaal directe of dreigende risico’s, maar hoe zit het met enkele van de minder waarschijnlijke maar nog steeds mogelijke gevaren van AI die we in de toekomst kunnen zien? Hiertoe behoren zaken als AI die wordt geprogrammeerd om mensen schade toe te brengen, bijvoorbeeld autonome wapens die zijn getraind om te doden tijdens een oorlog.

Dan is er het risico dat AI zich doelbewust op het geprogrammeerde doel kan concentreren en destructief gedrag kan ontwikkelen terwijl het koste wat het kost dat doel probeert te bereiken, zelfs als mensen proberen dit te voorkomen.

Skynet heeft ons geleerd wat er gebeurt als een AI bewust wordt. Hoewel Google -ingenieur Blake Lemoine misschien heeft geprobeerd iedereen ervan te overtuigen dat LaMDA, de kunstmatig intelligente chatbotgenerator van Google,(LaMDA, Google’s artificially intelligent chatbot generator was sentient) in juni 2022(June 2022) bewust was , is er tot nu toe gelukkig geen bewijs dat suggereert dat dit waar is.

De uitdagingen van AI-regulering

Op maandag 15 mei 202 woonde Sam Altman, CEO van OpenAI, de eerste congreshoorzitting over kunstmatige intelligentie bij(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) en waarschuwde: “Als deze technologie fout gaat, kan het helemaal fout gaan.” De OpenAI CO maakte duidelijk dat hij voorstander is van regulering en bracht veel van zijn eigen ideeën naar de hoorzitting. Het probleem is dat AI zo snel evolueert dat het moeilijk is om te weten waar te beginnen met regelgeving.

Het Congres(Congress) wil voorkomen dat dezelfde fouten worden gemaakt als aan het begin van het tijdperk van de sociale media, en een team van experts, samen met leider van de meerderheid in de Senaat, Chuck Schumer,(Senate Majority Leader Chuck Schumer) werkt al aan regelgeving die bedrijven verplicht te onthullen welke gegevensbronnen ze hebben gebruikt om modellen te trainen en wie hebben ze opgeleid. Het kan echter nog enige tijd duren voordat duidelijk wordt hoe AI precies zal worden gereguleerd, en er zal ongetwijfeld terugslag komen van AI-bedrijven.

De dreiging(Threat) van een kunstmatige algemene intelligentie(Artificial General Intelligence)

Er bestaat ook het risico dat er een kunstmatige algemene intelligentie ( AGI ) ontstaat die alle taken kan uitvoeren die een mens (of dier) zou kunnen uitvoeren. Vaak(Often) genoemd in sciencefictionfilms, zijn we waarschijnlijk nog tientallen jaren verwijderd van een dergelijke creatie, maar als en wanneer we een AGI creëren , kan dit een bedreiging vormen voor de mensheid.

Veel publieke figuren onderschrijven al de overtuiging dat AI een existentiële bedreiging voor de mens vormt, waaronder Stephen Hawking , Bill Gates en zelfs voormalig Google-CEO Eric Schmidt , die verklaarde: “Kunstmatige intelligentie kan existentiële risico’s met zich meebrengen en regeringen moeten weten hoe ze ervoor kunnen zorgen de technologie wordt niet misbruikt door slechte mensen.”

Is kunstmatige intelligentie dus gevaarlijk, en wegen de risico's ervan zwaarder dan de voordelen ervan? De jury is daar nog niet over uit, maar we zien momenteel al bewijs van enkele van de risico's om ons heen. Andere gevaren zullen waarschijnlijk niet snel werkelijkheid worden, of helemaal niet. Eén ding is echter duidelijk: de gevaren van AI mogen niet worden onderschat. Het is van het grootste belang dat we ervoor zorgen dat AI vanaf het begin goed wordt gereguleerd, om eventuele toekomstige risico’s te minimaliseren en hopelijk te beperken.



About the author

Ik ben een professionele audio engineer met meer dan 10 jaar ervaring. Ik werk de afgelopen jaren in de muziekindustrie en heb daarbinnen een sterke reputatie opgebouwd. Ik ben ook een zeer ervaren gebruikersaccount en operator voor gezinsveiligheid. Mijn verantwoordelijkheden omvatten het beheren van gebruikersaccounts, het bieden van ondersteuning aan klanten en het geven van veiligheidsadviezen voor het gezin aan werknemers.



Related posts