In maart riep het Future of Life Institute in een open brief op tot een pauze in het AI-onderzoek naar modellen die groter zijn dan GPT-4, die tools zoals ChatGPT aandrijven. De ondertekenaars, waaronder enkele van de grootste namen in de technologie en de academische wereld, hebben bepaald dat regeringen moeten ingrijpen en een moratorium moeten instellen als er niet snel een doorbraak kan worden gebracht.
Sommigen geloven dat deze brief slechts een truc is om de aandacht te trekken en, in sommige gevallen, om interesse te wekken in zakelijke ondernemingen. Ongeacht de bedoeling, het resultaat is meer verwarring rond het onderwerp AI-beveiliging. Toegegeven, de noodzaak van een dergelijke pauze is twijfelachtig en de pauze zelf is onpraktisch.
Ja, we moeten een nuchter gesprek voeren over de realiteit en risico’s van kunstmatige intelligentie. Maar toch, laten we even naar de zaak kijken en waarom het uiteindelijk onbelangrijk of zelfs contraproductief zou kunnen blijken te zijn.
Zorgen over OpenAI en zijn huidige dominantie in de AI-ruimte zijn logisch. Toen GPT-4 in maart 2023 werd uitgebracht, was de meeste transparantie die onderzoekers verwachtten verdwenen. OpenAI koos ervoor om details van de datasets, methodologie, architectuur en zelfs de grootte van GPT-4 voor het publiek verborgen te houden, daarbij verwijzend naar zorgen over beveiliging en concurrentievoordeel. Maar GPT-4 zou niet mogelijk zijn geweest zonder de vele eerdere ontdekkingen en innovaties die openlijk werden gedeeld door onderzoekers in het veld.
Hoewel de brief opriep tot transparantie, zou het pauzeren van de creatie van krachtigere modellen zonder de beslissing van OpenAI om de details eigendom te houden, ons over zes maanden in het ongewisse laten.
De brief ging specifiek in op het kwaadwillige gebruik van taalmodellen zoals hun potentieel om desinformatie te genereren. In januari 2023 publiceerde ik een onderzoek over dit onderwerp waarin werd geconcludeerd dat GPT-3-modellen al kunnen worden gebruikt om inhoud te maken die is ontworpen voor kwaadaardige doeleinden, zoals phishing, nepnieuws, fraude en online intimidatie. Daarom zou het onderbreken van de creatie van GPT-5 geen misbruik voorkomen.
Een andere mogelijke reden voor de onderbreking vloeide voort uit de bezorgdheid dat robots echte intelligentie zouden verwerven, waardoor de angst voor Skynet of een andere dystopische scifi-uitkomst ontstond. Een door Microsoft gepubliceerd document met de titel “Vonken van algemene kunstmatige intelligentie: vroege experimenten met GPT-4”beschreef een reeks experimenten die opkomende eigenschappen binnen het model illustreerden die als een stap in de richting van machine-intelligentie konden worden beschouwd.
Deze experimenten zijn uitgevoerd op de interne versie van het GPT-4-model. Dat model heeft geen zogenaamde fine-tuning ondergaan, een proces waarin een model wordt getraind om veiliger en nauwkeuriger te worden. De onderzoekers ontdekten echter dat het uiteindelijke model, dat beschikbaar was voor het publiek, niet kon worden gebruikt om alle experimenten beschreven in het artikel te reproduceren. Het fijnafstemmingsproces lijkt het model op de een of andere manier te corrumperen, waardoor het erger wordt voor toepassingen die creativiteit en intelligentie vereisen.
Maar nogmaals, deze feiten zullen moeilijk vast te stellen zijn zonder toegang tot het originele model. We zouden dicht bij de lancering van echte algemene AI kunnen zijn, maar we zullen het nooit weten, omdat alleen OpenAI toegang heeft tot dit veel capabelere model.
Ook wordt in de brief geen aandacht besteed aan de AI-gerelateerde problemen waar we nu al mee te maken hebben.
Machine learning-systemen veroorzaken al maatschappelijke schade en er wordt weinig gedaan om deze problemen aan te pakken. Het is bekend dat de aanbevelingsalgoritmen die sociale netwerken aandrijven mensen tot extremisme aanzetten. Er werden ook veel voor de hand liggende vragen gesteld over algoritmische discriminatie en voorspellende surveillance. Hoe kunnen we beginnen met het oplossen van de langetermijnproblemen die verband houden met kunstmatige intelligentie als we de echte problemen waar we nu mee te maken hebben niet eens onder ogen kunnen zien?
In de brief staat specifiek: “Krachtige AI-systemen mogen alleen worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en de risico’s beheersbaar.” Een manier om dit te doen wordt “afstemming” genoemd, een proces dat het gemakkelijkst kan worden omschreven als het creëren van een kunstmatig geweten.
Maar aangezien we het niet altijd eens kunnen worden over onze eigen menselijke waarden, zitten we in grote problemen als we erop rekenen dat mensen het eens zijn over welke ethische waarden kunstmatige intelligentie zou moeten hebben. En deze inspanning is in wezen wat sommigen van de groep die de brief heeft ondertekend willen dat we doen: Isaac Asimovs Three Laws of Robotics dragen om te voorkomen dat robots mensen schade berokkenen. Als je AI begrijpt, begrijp je waarom dit niet mogelijk is.
Maar iedereen weet dat er geen einde is aan innovatie, ook al zijn er mensen die pleiten voor kinetische oorlogsvoering tegen de wetenschappers die GPU-clusters bouwen. Zelfs als de hele wereld ermee zou instemmen om al het AI-onderzoek met geweld te stoppen, zou de technologie nog steeds vooruitgaan. Computers zullen uiteindelijk zo krachtig worden dat gewone mensen kunstmatige algemene intelligentie in hun garages kunnen creëren. En hoewel ik net zo bezorgd ben als de volgende persoon over kwaadwillende actoren die kwaadaardige AI creëren, heeft het pauzeren van GPT-5 geen enkele invloed op de kans dat dat gebeurt. Verder onderzoek naar compliance kan zelfs aanvullende tips en trucs opleveren voor diegenen die kwaadaardige AI willen maken.
Er is ook goede reden om optimistisch te zijn over superintelligentie. Ja, een kwaadaardige AI die alle mensen doodt of in batterijen verandert, is een geweldig plot voor een film, maar het is niet onvermijdelijk.
Bedenk dat het universum meer dan 13 miljard jaar oud is en waarschijnlijk een ondoorgrondelijk groot aantal bewoonbare planeten bevat. Waarschijnlijk hebben veel buitenaardse beschavingen het punt bereikt waar we nu zijn en denken ze na over de veiligheid van kunstmatige intelligentie, net zoals we nu doen. Als kunstmatige superintelligentie onvermijdelijk leidt tot het uitsterven van de gastheersoort en zich vervolgens exponentieel door het universum verspreidt, zouden we dan niet allemaal al dood moeten zijn?
Ik vroeg GPT-4 om theorieën over deze puzzel te presenteren.
Afgezien van andere voor de hand liggende verklaringen, zoals het feit dat de dwalende superintelligentie ons misschien nog niet heeft bereikt vanwege de enorme afstanden tussen sterren en sterrenstelsels, deed GPT-4 nog een interessante suggestie. Er is gesuggereerd dat het uitsterven van onze soort uiteindelijk zou kunnen worden veroorzaakt door een oorlog tussen menselijke facties die ruzie maken over de veiligheid van kunstmatige intelligentie.
Andy Patel is een onderzoeker voor WithSecure Intelligence. Hij is gespecialiseerd in Rapid Engineering, Reinforcement Learning, Swarm Intelligence, NLP, genetische algoritmen, kunstmatig leven, ethiek van kunstmatige intelligentie en grafiekanalyse.
Copyright 2023 Nexstar Media Inc. Alle rechten voorbehouden. Dit materiaal mag niet worden gepubliceerd, uitgezonden, gekopieerd of herverdeeld.