Waarom Geoffrey Hinton besloot dat hij “op de fluit moest blazen” over technologie

Waarom Geoffrey Hinton besloot dat hij “op de fluit moest blazen” over technologie

New York (CNN) Geoffrey Hinton, ook bekend als “De peetvader van kunstmatige intelligentieHij besloot dat hij de technologie die hij hielp ontwikkelen moest “fluiten” nadat hij zich zorgen maakte over hoe slim het was, vertelde hij dinsdag aan CNN.

“Ik ben maar een wetenschapper die zich plotseling realiseert dat deze dingen slimmer worden dan wij”, zei Hinton dinsdag in een interview met CNN-correspondent Jake Tapper. “Ik wil een soort fluitje blazen en zeggen dat we ons serieus zorgen moeten maken over hoe we voorkomen dat deze dingen ons overnemen.”

Het pionierswerk van Hinton op het gebied van neurale netwerken vormt de kunstmatige intelligentiesystemen die veel van de hedendaagse producten aandrijven. Maandag haalde hij de krantenkoppen voor het verlaten van zijn functie bij Google, waar hij tien jaar werkte, om openhartig te spreken over zijn groeiende zorgen over de technologie.

In een interview op maandag met De New York TimesHinton, die als eerste zijn verhuizing meldde, zei dat hij zich zorgen maakt over het vermogen van AI om banen te schrappen en een wereld te creëren waarin “velen niet langer kunnen zeggen wat goed is”. Hij merkte ook het verbazingwekkende tempo van de vooruitgang op, dat veel verder ging dan hij en anderen hadden verwacht.

“Als het slimmer zou zijn dan wij, zou het heel goed kunnen manipuleren, omdat het dat van ons zou hebben geleerd, en er zijn maar weinig voorbeelden van iets intelligenters dat wordt bestuurd door iets minder intelligents,” vertelde Hinton aan Tapper. Dinsdag.

“Ze weet hoe ze moet coderen, dus ze zal manieren bedenken om de beperkingen die we haar opleggen te omzeilen. Ze zal manieren bedenken om mensen te manipuleren om te doen wat ze willen.”

READ  PlayStation Holiday Sale-kortingen op PS Plus Extra en Premium tot wel 40% korting

Hinton is niet de enige technologieleider die openhartig is over zijn zorgen over AI. Een aantal leden van de gemeenschap ondertekende een bericht in maart AI Labs vragen om te stoppen met het trainen van de krachtigste AI-systemen gedurende ten minste zes maanden, daarbij verwijzend naar “grote risico’s voor de samenleving en de mensheid”.

de boodschap, gepubliceerd Van het Future of Life Institute, een non-profitorganisatie Ondersteund Door Elon Musk, slechts twee weken na OpenAI aankondigen GPT-4, een krachtigere versie van de virale chatbottechnologie die ChatGPT ondersteunt. In vroege tests en de demo van het bedrijf werd GPT-4 gebruikt om rechtszaken op te stellen, gestandaardiseerde tests te doorstaan ​​en een werkende website te bouwen op basis van een handgetekende schets.

Mede-oprichter van Apple, Steve Wozniak, die een van de ondertekenaars van de brief was, verscheen dinsdag op “CNN This Morning”, waarin hij zijn bezorgdheid uitte over het vermogen om verkeerde informatie te verspreiden.

“Misleiding zal veel gemakkelijker zijn voor degenen die je willen bedriegen”, zei Wozniak tegen CNN. “We brengen in dat opzicht geen veranderingen aan – we gaan er gewoon van uit dat de wetten die we hebben ervoor zullen zorgen.”

Wozniak zei ook dat er “een soort organisatie” nodig zou kunnen zijn.

Van zijn kant vertelde Hinton aan CNN dat hij de petitie niet had ondertekend. “Ik denk niet dat we de vooruitgang kunnen stoppen”, zei hij. “Ik heb de petitie niet ondertekend waarin staat dat we moeten stoppen met werken aan AI, want als mensen in Amerika stoppen, doen mensen in China dat niet.”

READ  Kijken naar het r/place-interval is als staren naar het hart van Reddit

Maar hij gaf toe dat er geen duidelijk antwoord was op wat hij in plaats daarvan moest doen.

“Het is mij niet duidelijk of we dit probleem kunnen oplossen”, zei Hinton tegen Tapper. “Ik denk dat we veel energie moeten steken in het bedenken van manieren om het probleem op te lossen. Ik heb op dit moment geen oplossing.”

Een reactie achterlaten

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *