Derimot: AI-pioner om konsekvensene av kunstig intelligens: Advarer om at en fremvoksende AI-teknologi kan utslette menneskeslekten om få år. – Derimot
derimot.no:
Av Vaken
Pioneren innen kunstig intelligens Eliezer Yudkowsky har advart om at menneskeheten kanskje bare har noen få år igjen, ettersom kunstig intelligens blir stadig mer sofistikert.
I et intervju med The Guardian sa han til forfatteren Tom Lamont: «Hvis du tvinger meg til å sette grader av sannsynlighet på ting, har jeg en følelse av at vår nåværende gjenværende tidslinje ser mer ut som fem år enn 50 år. Det kan være to år, det kan være 10″. Yudkowsky, som grunnla Machine Intelligence Research Institute i California, snakker om slutten på menneskeheten slik vi kjenner den. Han sa at problemet er at mange mennesker ikke forstår hvor usannsynlig det er at menneskeheten vil overleve alt dette. «Vi mennesker har bare en liten sjanse til å overleve», advarte han.
Det er skremmende ord fra noen som administrerende direktør for ChatGPT-skaperen OpenAI, Sam Altman, personen som var «medvirkende til beslutningen om å starte OpenAI», og fikk mange andre til å interessere seg for kunstig generell intelligens.
I fjor skrev Yudkowsky i et åpent brev i TIME at de fleste eksperter på feltet mener «at det mest sannsynlige resultatet av å bygge en overmenneskelig intelligent AI, under de nåværende omstendigheter, er at bokstavelig talt at alle på jorden vil dø».
Han forklarte at det vil komme et til et punkt når AI ikke gjør det mennesker vil at den skal gjøre, og ikke bryr seg om sansende liv i det hele tatt. Selv om han tror at den typen egenskaper en dag kan bli inkorporert i AI, i det minste i prinsippet, er det ingen som for øyeblikket vet hvordan det skal gjøres. Dette betyr at folk kjemper en håpløs kamp, en som han sammenligner med «det 12 århundre prøver å bekjempe det 21 århundre».
Yudkowsky sa at en AI som virkelig er intelligent ikke vil forbli i datamaskiner, og påpekte at det nå er mulig å sende DNA-strenger via e-post til laboratorier, og få dem til å produsere proteiner for deg, noe som betyr at en AI som opprinnelig bare eksisterer på Internett kan «bygge kunstige livsformer, eller direkte utvikle seg til å utføre postbiologisk molekylær produksjon».
Han har også forklart at AI kan bruke «superbiologi» mot deg.
«Hvis noen bygger en altfor intelligent AI, under nåværende forhold, forventer jeg at hvert enkelt medlem av menneskeheten og alt biologisk liv på jorden dør kort tid etterpå», la han til. Dataforskere har advart minst siden 1960-tallet, om at målene til maskinene vi lager ikke nødvendigvis vil stemme overens med våre egne.
Yudkowsky sier løsningen er å «stenge ned alt».
Så hvordan kan vi stoppe dette? Ifølge Yudkowsky må mye gjøres. For eksempel bør et ubestemt og globalt moratorium for å gjennomføre nye storstilte forberedende øvelser innføres, uten unntak for militære eller regjeringer, selv om det er vanskelig å forestille seg internasjonalt samarbeid om dette spørsmålet fra steder som Kina.
Han mener også at store GPU (grafikkprosessor)-datamaskinsentraler bør legges ned. Dette er de store datasentralene hvor verdens kraftigste AI-maskiner utvikles. Begrensninger på mengden datakraft som kan brukes til å trene AI-systemer vil også hjelpe i fremtiden, ettersom treningsalgoritmene blir mer effektive.
Yudkowsky mener vi bør «være forberedt på å ødelegge et uregjerlig datasenter med luftangrep». Han skrev at til og med kjernefysiske våpen kunne være akseptable hvis det innebar å ta ut AI, selv om han nå sier at han ville ha brukt «mer forsiktig formulering», om dette hvis han kunne skrive artikkelen på ny.
Selv om noen kan anklage ham for å spre frykt eller være ute etter sensasjon, avslørte den største undersøkelsen noensinne blant AI-forskere, publisert i forrige måned, at 16 % av dem tror at deres arbeid med AI vil føre til utryddelse av menneskeheten.
Fra Vaken, publisert 23 februar 2024.
Oversatt fra svensk. Linker i orginalartikkelen. Oversatt av Northern Light.
Orginalartikkel: AI-pionjären varnar för att mänsklighetens återstående tidslinje endast är några få år på grund av risken att ny framväxande AI-teknik kan förinta människorasen.
Forsidebilde: Lexica