La IA està dominant el llenguatge. Hem de confiar en el que diu?


Però com que la fluïdesa de GPT-3 ha enlluernat molts observadors, l’enfocament del model de llenguatge gran també ha atret crítiques significatives durant els últims anys. Alguns escèptics argumenten que el programari només és capaç de mimetisme cec: que està imitant els patrons sintàctics del llenguatge humà, però que és incapaç de generar les seves pròpies idees o prendre decisions complexes, una limitació fonamental que impedirà que l’enfocament de LLM maduri en qualsevol cosa que s’assembla. intel·ligència humana. Per a aquests crítics, GPT-3 és només l’últim objecte brillant d’una llarga història d’exageració de la IA, que canalitza els dòlars de la investigació i l’atenció cap al que finalment resultarà ser un carreró sense sortida, evitant que madurin altres enfocaments prometedors. Altres crítics creuen que el programari com GPT-3 es mantindrà per sempre compromès pels biaixos i la propaganda i la desinformació de les dades en què s’ha entrenat, el que significa que utilitzar-lo per a qualsevol cosa més que trucs de sala sempre serà irresponsable.

Allà on arribeu en aquest debat, el ritme de millora recent dels grans models lingüístics fa difícil imaginar que no es desplegaran comercialment en els propers anys. I això planteja la qüestió de com s’haurien de llançar al món, i, per tant, els altres avenços de la IA. Amb l’auge de Facebook i Google, hem vist com el domini en un nou àmbit de la tecnologia pot conduir ràpidament a un poder sorprenent sobre la societat, i la IA amenaça de ser encara més transformadora que les xarxes socials en els seus efectes finals. Quin és el tipus d’organització adequat per construir i posseir quelcom de tanta escala i ambició, amb tanta promesa i tant potencial d’abús?

O l’hauríem de construir?

Els orígens d’OpenAI data fins al juliol de 2015, quan un petit grup de lluminàries del món tecnològic es va reunir per a un sopar privat al Rosewood Hotel de Sand Hill Road, el cor simbòlic de Silicon Valley. El sopar va tenir lloc enmig de dos avenços recents en el món tecnològic, un de positiu i un de més preocupant. D’una banda, els avenços radicals en la potència computacional —i alguns nous avenços en el disseny de xarxes neuronals— havien creat una sensació palpable d’emoció en el camp de l’aprenentatge automàtic; hi havia la sensació que el llarg “hivern AI”, les dècades en què el camp no va estar a l’altura del seu bombo inicial, finalment començava a descongelar-se. Un grup de la Universitat de Toronto havia entrenat un programa anomenat AlexNet per identificar classes d’objectes en fotografies (gossos, castells, tractors, taules) amb un nivell de precisió molt superior al que havia aconseguit qualsevol xarxa neuronal anteriorment. Google va entrar ràpidament per contractar els creadors d’AlexNet, alhora que va adquirir DeepMind i va iniciar una iniciativa pròpia anomenada Google Brain. L’adopció generalitzada d’assistents intel·ligents com Siri i Alexa va demostrar que fins i tot els agents amb guió podrien ser èxits de consum.

Però durant aquest mateix període de temps, es va produir un canvi sísmic en l’actitud pública cap a la Big Tech, amb empreses que abans populars com Google o Facebook van ser criticades pels seus poders gairebé monopolistics, la seva amplificació de les teories de la conspiració i la seva inexorable desviació de la nostra atenció. cap a fonts algorítmiques. Les pors a llarg termini sobre els perills de la intel·ligència artificial estaven apareixent a les pàgines d’opinions i a l’escenari TED. Nick Bostrom, de la Universitat d’Oxford, va publicar el seu llibre ”Superintel·ligència”, presentant una sèrie d’escenaris en què la IA avançada podria desviar-se dels interessos de la humanitat amb conseqüències potencialment desastroses. A finals de 2014, Stephen Hawking va anunciar a la BBC que ”el desenvolupament de la intel·ligència artificial completa podria significar el final de la raça humana”. Semblava com si el cicle de consolidació corporativa que va caracteritzar l’era de les xarxes socials ja s’estava passant amb la IA, només que aquesta vegada, els algorismes potser no només cal sembrar polarització o vendre la nostra atenció al millor postor; podrien acabar destruint la pròpia humanitat. I una vegada més, tota l’evidència suggeria que aquest poder seria controlat per unes quantes megacorporacions de Silicon Valley.

L’agenda del sopar a Sand Hill Road aquella nit de juliol no era sinó ambiciosa: esbrinar la millor manera d’orientar la investigació de la IA cap al resultat més positiu possible, evitant tant les conseqüències negatives a curt termini que van afectar l’era Web 2.0 com la amenaces existencials a llarg termini. A partir d’aquell sopar, va començar a prendre forma una nova idea, una que aviat es convertiria en una obsessió a temps complet per a Sam Altman de Y Combinator i Greg Brockman, que recentment havien deixat Stripe. Curiosament, la idea no era tant tecnològica com organitzativa: si la IA s’anava alliberant al món d’una manera segura i beneficiosa, requeriria innovació a nivell de governança i incentius i implicació de les parts interessades. El camí tècnic cap al que el camp anomena intel·ligència general artificial, o AGI, encara no estava clar per al grup. Però les inquietants previsions de Bostrom i Hawking els van convèncer que l’assoliment d’una intel·ligència humana per part de les IA consolidaria una quantitat sorprenent de poder i càrrega moral en qui finalment va aconseguir inventar-los i controlar-los.

El desembre de 2015, el grup va anunciar la formació d’una nova entitat anomenada OpenAI. Altman havia signat per ser director executiu de l’empresa, amb Brockman supervisant la tecnologia; Un altre assistent al sopar, el cocreador d’AlexNet Ilya Sutskever, havia estat contractat de Google per ser el cap d’investigació. (Elon Musk, que també va estar present al sopar, es va incorporar a la junta directiva, però va marxar el 2018). entrada al blog, Brockman i Sutskever van exposar l’abast de la seva ambició: ”OpenAI és una empresa de recerca d’intel·ligència artificial sense ànim de lucre”, van escriure. “El nostre objectiu és avançar en la intel·ligència digital de la manera que és més probable que beneficiï la humanitat en el seu conjunt, sense limitacions per la necessitat de generar un retorn financer”. Van afegir: “Creiem que la IA hauria de ser una extensió de la voluntat humana individual i, amb esperit de llibertat, distribuïts de la manera més àmplia i uniforme possible”.

Els fundadors d’OpenAI llançarien a carta pública tres anys més tard, explicant els principis bàsics darrere de la nova organització. El document es va interpretar fàcilment com una investigació no tan subtil a l’eslògan de Google ”No siguis malvat” des dels seus inicis, un reconeixement que maximitzar els beneficis socials —i minimitzar els danys— de la nova tecnologia no sempre era això. un simple càlcul. Mentre que Google i Facebook havien assolit el domini global mitjançant algorismes de codi tancat i xarxes de propietat, els fundadors d’OpenAI van prometre anar en l’altra direcció, compartint noves investigacions i codi lliurement amb el món.