Pitäisikö meidän lopettaa edistyneen AI:n harjoittelu?
Kutentekoäly (AI)edistyy edelleen, jotkut alan avainhenkilöt vaativat nyt tekoälykoulutuksen keskeyttämistä sen ihmiskunnalle aiheuttaman riskin vuoksi. Twitterin toimitusjohtaja Elon Musk, Applen toinen perustaja Steve Wozniak ja jotkut DeepMindin tutkijat ovat allekirjoittaneet Future of Life Instituten avoimen kirjeen, jossa kehotetaan väliaikaisesti keskeyttämään tekoälyn kehitys tietyn kapasiteetin yli, varoittamalla kehittyneempien järjestelmien aiheuttamista riskeistä. . Kirjeessä väitetään, että AI-laboratoriot ovat viime kuukausina olleet lukittuneena hallitsemattomaan kilpailuun kehittääkseen tehokkaampia digitaalisia mieliä, joita edes niiden tekijät eivät voi ymmärtää, ennustaa tai hallita.
Future of Life Institute on voittoa tavoittelematon järjestö, jonka tavoitteena on ohjata transformatiivisia teknologioita pois äärimmäisistä, laajamittaisista riskeistä ja kohti elämän hyötymistä. Avoimessa kirjeessään järjestö toteaa, että tekoälyjärjestelmät, joissa on ihmisten kilpailevaa älykkyyttä, aiheuttavat suuria riskejä yhteiskunnalle ja ihmiskunnalle. Kirje varoittaa, että tällaiset järjestelmät voivat tulvii tietokanavia väärällä tiedolla ja korvata työt automaatiolla. Edistyneitä tekoälyjä on kehitettävä varoen, mutta sen sijaan viime kuukausina laboratoriot ovat kilpaileneet ottaakseen käyttöön entistä tehokkaampia järjestelmiä.
Investointipankki Goldman Sachs julkaisi äskettäin raportin, jonka mukaan tekoäly todennäköisesti lisää tuottavuutta, mutta miljoonia työpaikkoja voidaan automatisoida. Muut asiantuntijat kuitenkin väittävät, että tekoälyn vaikutusta työmarkkinoihin on vaikea ennustaa. Kirjeessä Future of Life Institute kysyy: "Pitäisikö meidän kehittää ei-inhimillisiä mieliä, jotka voisivat lopulta olla enemmän, ovelampia, vanhentuneita [sic] ja korvata meidät?" Professori Stuart Russell Kalifornian yliopistosta Berkeleystä ja kirjeen allekirjoittaja kertoi BBC Newsille, että tekoälyjärjestelmät aiheuttavat merkittäviä riskejä demokratialle aseistetun disinformaation kautta, työllisyydelle inhimillisten taitojen syrjäyttämisen kautta ja koulutukselle plagioinnin ja demotivaation kautta.
Kirje varoittaa myös mahdollisesta tulevasta uhasta, joka uhkaa kehittyneiden tekoälyjen aiheuttamaa ihmisen hallintaa sivilisaatiossamme, mutta Princetonin tietokonetieteen professori Arvind Narayanan kritisoi kirjettä siitä, että se jätti huomiotta sen version ongelmasta, joka jo nyt vahingoittaa ihmisiä. Hän syytti kirjettä keskittymisestä "spekulatiiviseen, futuristiseen riskiin". ChatGPT:n takana oleva OpenAI julkaisi äskettäin GPT-4:n – huippuluokan teknologian, joka on tehnyt vaikutuksen tarkkailijoihin kyvyllään suorittaa tehtäviä, kuten vastata kuvissa olevia objekteja koskeviin kysymyksiin.OpenAIei ole kommentoinut kirjettä julkisesti.
Tekoälyn nopeaan kehittymiseen liittyvät mahdolliset riskit huomioon ottaen asiantuntijat vaativat suurempaa varovaisuutta tekoälyn kehittämisessä. Erityisesti he kehottavat laboratorioita keskeyttämään välittömästi vähintään kuudeksi kuukaudeksi GPT-4:ää tehokkaampien tekoälyjärjestelmien koulutuksen. Vaikka tekoälyllä on potentiaalia muuttaa yhteiskuntaa, asiantuntijat väittävät, että tällaisen muutoksen ei pitäisi tapahtua ihmisten turvallisuuden ja hallinnan kustannuksella.
Pitkällä aikavälillä järkevien varotoimenpiteiden toteuttaminen on pieni hinta kehittyneiden tekoälyjen aiheuttamien riskien vähentämiseksi. Asiantuntijat väittävät kuitenkin myös, että riskejä on vaikea ennustaa ja että meidän on edettävä varoen tahattomien seurausten välttämiseksi. Future of Life Institute kehottaa tekoälykehittäjiä pohtimaan työnsä mahdollisia tulevaisuuden vaikutuksia ja varmistamaan, että edistyneitä tekoälyjä kehitetään huolellisesti.
Kaiken kaikkiaan kehotus keskeyttää tekoälykoulutus tietyn kapasiteetin yli heijastaa kasvavaa huolta edistyneiden tekoälyjen aiheuttamista riskeistä. Vaikka emme vielä tiedä paljon tekoälyn pitkäaikaisista vaikutuksista, asiantuntijat kehottavat varovaisuuteen, jotta vältetään mahdolliset haitat yhteiskunnalle ja ihmiskunnalle. Tekoälyn nopea kehitys viime vuosien aikana on jättänyt monet asiantuntijat huolestuneiksi siitä, että tekniikka saattaa olla hallinnan ulkopuolella ja että olemme vaarassa luoda järjestelmiä, joita emme voi ymmärtää tai hallita. Kehotus keskeyttää tekoälykehitys on sellaisenaan välttämätön askel sen varmistamiseksi, että voimme hyödyntää tekoälyn potentiaalia turvallisesti ja vastuullisesti.