La IA talla, flueix i es torna verda: TechCrunch


La investigació en el camp de l’aprenentatge automàtic i la intel·ligència artificial, ara una tecnologia clau en pràcticament totes les indústries i empreses, és massa voluminosa perquè ningú ho pugui llegir tot. Aquesta columna pretén recollir alguns dels descobriments i articles recents més rellevants, especialment en intel·ligència artificial, entre d’altres, i explicar per què són importants.

Aquesta setmana s’han trobat aplicacions d’IA en diversos nínxols inesperats a causa de la seva capacitat per ordenar grans quantitats de dades o, alternativament, fer prediccions raonables basades en proves limitades.

Hem vist models d’aprenentatge automàtic que utilitzen grans conjunts de dades en biotecnologia i finances, però els investigadors de l’ETH Zurich i LMU Munich estan aplicant tècniques similars a les dades generades pels projectes internacionals d’ajuda al desenvolupament com ara el socors en cas de desastre i l’habitatge. L’equip va entrenar el seu model en milions de projectes (per un import de 2,8 bilions de dòlars en finançament) dels darrers 20 anys, un conjunt de dades enorme que és massa complex per analitzar-lo manualment en detall.

“Podeu pensar en el procés com un intent de llegir una biblioteca sencera i ordenar llibres similars en prestatgeries per temes específics. El nostre algorisme té en compte 200 dimensions diferents per determinar com de semblants són aquests 3,2 milions de projectes entre si, una càrrega de treball impossible per a un ésser humà”, va dir l’autor de l’estudi Malte Toetzke.

Les tendències de molt nivell suggereixen que la despesa en inclusió i diversitat ha augmentat, mentre que, sorprenentment, la despesa climàtica ha disminuït en els últims anys. Podeu examinar el conjunt de dades i les tendències que van analitzar aquí.

Una altra àrea en què poca gent pensa és la gran quantitat de peces i components de màquines que es produeixen per diverses indústries amb un gran clip. Alguns es poden reutilitzar, d’altres reciclar, d’altres s’han d’eliminar de manera responsable, però n’hi ha massa perquè els especialistes humans els passin. El grup alemany de R+D Fraunhofer té va desenvolupar un model d’aprenentatge automàtic per identificar peces perquè es puguin utilitzar en comptes de dirigir-se a la ferralla.

Una part es troba sobre una taula com a part d'una demostració d'una IA d'identificació.

Crèdits d’imatge: Fraunhofer

El sistema es basa en més vistes de la càmera que les normals, ja que les peces poden semblar similars però ser molt diferents, o ser idèntiques mecànicament però difereixen visualment a causa de l’òxid o el desgast. Així, cada part també es pesa i escaneja amb càmeres 3D, i també s’inclouen metadades com l’origen. Aleshores, el model suggereix quina creu que és la peça perquè l’ésser humà que la inspeccioni no hagi de començar des de zero. S’espera que aviat s’estalviaran desenes de milers de peces i s’accelera el processament de milions mitjançant l’ús d’aquest mètode d’identificació assistit per IA.

Els físics han trobat una manera interessant d’aplicar les qualitats de ML a un problema centenari. Essencialment, els investigadors sempre busquen maneres de demostrar que les equacions que regeixen la dinàmica de fluids (algunes de les quals, com la d’Euler, daten del segle XVIII) són incompletes, que trenquen a certs valors extrems. Utilitzant tècniques computacionals tradicionals això és difícil de fer, encara que no impossible. Però els investigadors del CIT i de la Universitat Hang Seng de Hong Kong proposen un nou mètode d’aprenentatge profund per aïllar casos probables de singularitats de dinàmica de fluids, mentre que altres estan aplicant la tècnica d’altres maneres al camp. Aquest article de Quanta explica força bé aquest interessant desenvolupament.

Un altre concepte centenari que aconsegueix una capa ML és el kirigami, l’art de tallar paper que molts estaran familiaritzats en el context de la creació de flocs de neu de paper. La tècnica es remunta a segles enrere al Japó i la Xina en particular, i pot produir estructures notablement complexes i flexibles. Els investigadors dels Argonne National Labs es van inspirar en el concepte teoritzar un material 2D que pot retenir l’electrònica a escala microscòpica però també es pot flexionar fàcilment.

L’equip havia estat fent desenes de milers d’experiments amb 1-6 talls manualment i va utilitzar aquestes dades per entrenar el model. Després van utilitzar un superordinador del Departament d’Energia per realitzar simulacions fins a nivell molecular. En segons va produir una variació de 10 talls amb un 40 per cent d’estirabilitat, molt més enllà del que l’equip havia esperat o fins i tot provat pel seu compte.

Simulació de molècules que formen un material 2D estirat.

Crèdits d’imatge: Argonne National Labs

“Ha descobert coses que mai li vam dir que esbrinés. Va aprendre alguna cosa de la manera com aprèn un humà i va utilitzar el seu coneixement per fer alguna cosa diferent “, va dir el líder del projecte Pankaj Rajak. L’èxit els ha estimulat a augmentar la complexitat i l’abast de la simulació.

Una altra extrapolació interessant feta per una IA especialment entrenada té un model de visió per ordinador que reconstrueix dades de color a partir d’entrades d’infrarojos. Normalment, una càmera que capti IR no sabria res de quin color era un objecte a l’espectre visible. Però aquest experiment va trobar correlacions entre determinades bandes IR i les visibles, i va crear un model per convertir imatges de cares humans capturades en IR en imatges que s’aproximin a l’espectre visible.

Encara és només una prova de concepte, però aquesta flexibilitat de l’espectre podria ser una eina útil en ciència i fotografia.

Mentrestant, un nou estudi escrit pel director d’IA de Google, Jeff Dean, rebutja la idea que la intel·ligència artificial és un esforç ambientalment costós, a causa dels seus alts requisits informàtics. Tot i que algunes investigacions han trobat que entrenar un model gran com el GPT-3 d’OpenAI pot generar emissions de diòxid de carboni equivalent a la d’un barri petit, l’estudi afiliat a Google afirma que “seguir les millors pràctiques” pot reduir les emissions de carboni d’aprenentatge automàtic fins a 1000x.

Les pràctiques en qüestió es refereixen als tipus de models utilitzats, les màquines que s’utilitzen per entrenar models, la “mecanització” (per exemple, la computació al núvol en comparació amb els ordinadors locals) i el “mapa” (escollint les ubicacions dels centres de dades amb l’energia més neta). Segons els coautors, la selecció de models “eficients” només pot reduir el càlcul en factors de 5 a 10, mentre que l’ús de processadors optimitzats per a l’entrenament d’aprenentatge automàtic, com ara les GPU, pot millorar la relació rendiment-per-Watt en factors de 2 a 5.

Qualsevol fil d’investigació que suggereixi que l’impacte ambiental de la IA es pot reduir és motiu de celebració. Però cal assenyalar que Google no és un partit neutral. Molts dels productes de l’empresa, des de Google Maps fins a la Cerca de Google, es basen en models que requereixen grans quantitats d’energia per desenvolupar-se i funcionar.

Mike Cook, membre del grup de recerca obert Knives and Paintbrushes, assenyala que, fins i tot si les estimacions de l’estudi són precises, hi ha simplement no és una bona raó perquè una empresa no creixi d’una manera energèticament ineficient si els beneficia. Tot i que els grups acadèmics poden prestar atenció a mètriques com l’impacte del carboni, les empreses no estan tan incentivades de la mateixa manera, almenys actualment.

“La raó per la qual estem tenint aquesta conversa per començar és que empreses com Google i OpenAI tenien un finançament infinit de manera efectiva i van optar per aprofitar-la per construir models com GPT-3 i BERT a qualsevol preu, perquè sabien que els donava un avantatge,” Cook va dir a TechCrunch per correu electrònic. “En general, Crec que el diari diu coses bones i és fantàstic si pensem en l’eficiència, però el tema no és tècnic al meu entendre; sabem amb certesa que aquestes empreses seran grans quan ho necessitin, van guanyar. No es limiten, així que dir que això està resolt per sempre sembla una línia buida.

L’últim tema d’aquesta setmana no tracta exactament sobre l’aprenentatge automàtic, sinó sobre quina podria ser una manera d’avançar per simular el cervell d’una manera més directa. Investigadors en bioinformàtica de l’EPFL va crear un model matemàtic per crear tones de neurones simulades úniques però precises que eventualment es podrien utilitzar per construir bessons digitals de neuroanatomia.

“Les troballes ja permeten a Blue Brain construir reconstruccions i simulacions biològicament detallades del cervell del ratolí, reconstruint computacionalment regions cerebrals per a simulacions que repliquin les propietats anatòmiques de les morfologies neuronals i inclouen anatomia específica de la regió”, va dir la investigadora Lida Kanari.

No espereu que els sim-brains facin millors IA, això és molt a la recerca dels avenços en neurociència, però potser les idees de les xarxes neuronals simulades poden conduir a millores fonamentals en la comprensió dels processos que la IA intenta imitar digitalment.