Artwork for podcast EHUpodcast
Adimen Artifizialaren egia ezkutua
Episode 327th November 2025 • EHUpodcast • Universidad del País Vasco/Euskal Herriko Unibertsitatea (EHU)
00:00:00 00:27:05

Share Episode

Shownotes

Adimen Artifiziala ChatGPT-rekin jaio zela uste duzu? Erabat oker zaude.


Usue Mori Carrascal, Euskal Herriko Unibertsitateko ikertzailea, irakaslea eta Adimen Artifizialeko(IA) graduko koordinatzailea, gure mikrofonoen aurrean eseri da, Adimen Artifizialaren eboluzioa aztertzeko, hastapenetatik hasi eta gaur egungo boom-era arte.

Gladys saria irabazi duen ikertzaile honek teknologiaren iragan ezkutuan zehar gidatuko gaitu, 50eko hamarkadatik, gure egunerokotasunean dagoen IA-ren adibideekin (xake programetatik Siri-ra) hasita, eta etorkizunaren erantzukizunaz ohartaraziko gaitu.

Usue Mori Carrascal EHUko irakasle eta ikertzailearekin izandako elkarrizketa honetan, Adimen Artifizialaren (IA) benetako jatorria (1956an hasia) eta ChatGPT aurreko garapenak deskubrituko dituzu. Usuek denbora-serieen datu-meatzaritzan egindako ikerketa sakonduko du, zehazki osasun arloan nola aplikatzen den hobeto ulertzeko, hala nola gaixotasun neurodegeneratiboen inguruko (Alzheimerra, Parkinsona) ikerketan.

Gainera, IA enpresa handien esku soilik geratzearen arriskuak aztertuko dira, gardentasun falta eta alborapen algoritmikoek gizartean sortzendituzten diskriminazioak nabarmenduz. Etika eta inklusibitatea bermatzeko helburua duten Ondare proiektuan eta HackMorea ekimenean zer egiten ari den azalduko da, eta, azkenik, demokrazia digitala eraikitzeko eta IAren mugak ulertzeko gizartearen formazioaren funtsezko beharra azpimarratuko da.

####


¿Crees que la Inteligencia Artificial nació con ChatGPT? Te equivocas.


Usue Mori Carrascal, investigadora, profesora y coordinadora del grado de Inteligencia Artificial (IA) de la Universidad del País Vasco/Euskal Herriko Unibertsitatea (EHU), se ha sentado delante de nuestro micrófono para contarnos la historia de la Inteligencia Artificial, desde sus inicios hasta el boom actual.

Esta investigadora ganadora del premio Gladys nos guiará a través del pasado oculto de la tecnología, comenzando con ejemplos de IA (de programas de ajedrez a Siri) que existe en nuestra vida desde los años 50, y nos alertará sobre la responsabilidad del futuro.

En esta entrevista con Usue Mori Carrascal, profesora e investigadora de la EHU, descubrirás los verdaderos orígenes de la Inteligencia Artificial (IA), iniciada en 1956, y los desarrollos previos a ChatGPT.

La conversación profundiza en la investigación de Mori sobre la minería de datos de series temporales, haciendo especial hincapié en su crucial aplicación en el ámbito de la salud, como la comprensión y el potencial diagnóstico de enfermedades neurodegenerativas como el Alzheimer y el Parkinson. Además, se aborda con rigor el riesgo de que la IA quede en manos de las grandes corporaciones, destacando la falta de transparencia y las graves discriminaciones sociales generadas por los sesgos algorítmicos.

Para contrarrestar estos desafíos y fomentar una IA ética e inclusiva, se presentarán los objetivos del Proyecto Ondare y la iniciativa HackMorea.

Finalmente, la experta insiste en la necesidad fundamental de la formación ciudadana para construir una verdadera democracia digital y comprender plenamente los límites de esta tecnología.

####

Do you think Artificial Intelligence was born with ChatGPT? You are mistaken.


Usue Mori Carrascal, researcher, professor, and coordinator of the Artificial Intelligence (AI) degree at the University of the Basque Country (EHU), sat down with us to recount the history of AI, from its beginnings to the current boom. This researcher, a winner of the Gladys Award, will guide us through the technology's hidden past, starting with examples of AI (from chess programs to Siri) that have been in our lives since the 1950s, and will alert us about the responsibilities of its future.

In this interview, Usue Mori Carrascal discusses the true origins of Artificial Intelligence (AI), which began in 1956, and the developments preceding ChatGPT.

The conversation delves into Moris's research on the mining of time series data, with a crucial focus on its application in healthcare, such as the understanding and potential diagnosis of neurodegenerative diseases like Alzheimer's and Parkinson's. Furthermore, the risk of AI falling exclusively into the hands of large corporations is rigorously addressed, highlighting the lack of transparency and the severe social discrimination generated by algorithmic biases. To counteract these challenges and foster an ethical and inclusive AI, the objectives of the Ondare project and the HackMorea initiative will be presented. Finally, the expert emphasizes the fundamental need for citizen education to build a true digital democracy and fully comprehend the limits of this technology.


Transcripts

EHUpodcast 3- TRANSCRIPTIONS

Usue Mori Carrascal donostiarra EHUko irakasle eta ikertzailea da, Matematikan eta Adimen Artifizialean aditua delarik. Formakuntzari dagokionez, Matematikan lizentziatu zen, baina doktoregoa Informatika Ingeniaritzan egin zuenez, Informatika Ingeniaritzan

o irakaslea agregatua da, eta:

Lehendabiziko galderarekin hasiko naiz. Ti-ta batean. Uxue, jende askok uste du

adimen artifiziala chat-gpt-rekin jaio dela, baina hau ez da horrela. Noiztik egiten da Ikerketa adimen artifizialaren arloan? Eta noiztik esan daiteke adimen artifiziala adimen artifiziala dela?

ren arloan ere. Ada Lovelacek:

makinen ahalmenei buruz, eta kalkuluz haratago, musika eta artea prozesatzeko gai izango zela aurreikusi zuen. Alan Turinek ere 1950 urtean artikulu oso garrantzitsu bat argitaratu zuen, eta bertan makinek pentsatzeko ahalmena izango zutela espekulatu zuen. Hala ere, ofizialki eta pixka bat teoriatik praktikara pasata, adimen artifiziala zientzia arlo bezala eta ikerketa arlo bezala, 1956 urtean inauguratu zen Darmouth College egin zen kongresu batean. Geroztik, arloak gorabehera nabariak izan ditu, urrezko garaiekin, finantzazio izugarri handiak jaso dituen aroekin eta baita adimen artifizialaren neguak deitzen diren beste garai batzuekin. Eta orain, berriro ere boom horietako batean gaude orduan?

, adibide batzuk jartzearren,:

adibide nahiko zaharrak dira, eta guztiek erakusten dute adimen artifiziala ez dela gaur egungo moda bat, baizik eta urte askotako garapenaren emaitza.

Oso ongi. Zure ikerketa, batez ere izaera tenporaleko datuen meatzaritza, hau da, datuen bilketa eta analisiaren arloan zentratzen da. Oker ez banaiz. Behin datuak saskian edo, hobeki esanda, bagonetetan, hau txistea da meatzetaz ari baikara, ondoren, zuen lana

patroiak identifikatu, joerak ulertu eta etorkizunari buruzko iragarpenak egitean datza.

Gure eguneroko bizitzan. Non antzematen da gisa horretako ikerketa?

Ba, bai. Zuk esan bezala, gaur egungo adimen artifiziala gehienbat datuetatik ikastean oinarritzen da. Nire kasuan, datu mota espezifiko batekin egiten dut lan gehienbat, eta datu hauek dira denbora-serieak. Datu hauen ezaugarri nagusia da denboran zehar jasotzen direla. Eta adibide bat erraz ulertzekoa izango litzateke hilabete batean, adibidez, herri batean orduro neurtutako tenperaturak jasotzen duen denbora seriea. Datu berdinak 1.000 herritan jasoko bagenitu, denbora-serie asko edukiko genituzke, eta datu sorta oso handia.

Nire lana da horrelako datu sortetatik patroiak ateratzea, sailkapenak egiteko, iragarpenak egiteko, anomaliak detektatzeko eta abar. Pixka bat pentsatzen jarrita, horrelako datuak ia edonon sortzen direla, erraz hautematen dugu. Adibide pare bat jartzearren. Medikuntzan, paziente baten konstanteak monitorizatzen ditugunean, denbora serieak ditugu. Edo industrian makinak lanean dauden bitartean sentsoreek gertatzen ari dena jasotzen badute, hor ere denbora serieak dauzkagu. Datuetatik informazio erabilgarria ateratzeko adimen artifiziala erabili dezakegu, eta nik horretan lan egiten dut.

Eta nola laguntzen dizue adimen artifizialak patroi horiek aurkitzen edo iragarpen horiek egiten?

Esan dudan bezala, adimen artifizialeko algoritmoek datu multzo handietatik ikasten dute. Errazago esanda, adibide pila bat ikusten dituzte, eta, nolabait, orokortu egiten dute. Adibidez, demagun bihotzeko gaixotasun jakin bat iragartzen duen eredu automatiko bat eraiki nahi dugula. Gaixotasun hori duten eta ez duten paziente pila baten elektrokardiogramak jasoko ditugu, eta horiek izango dira gure datuak. Elektrokardiograma bakoitzak etiketa bat izango du, gaixo ala ez esango diguna elektrokardiograma bakoitzari. Etiketa horiek erabilita, eta sartuko ditugu datu guzti horiek oinarri matematiko eta konputazionala duen algoritmo batean, eta horrekin prozesatu egingo ditugu, eta lortuko dugu eredu bat. Eredu hori gure datu multzora ahalik eta gehien doituko da, eta saiatuko da ahalik eta hoberen sailkatzen dauzkagun pazienteak. Behin eredua eraiki dugunean, gure datu sortatik erabili dezakegu paziente berriak gaixo dauden ala ez dauden sailkatzeko. Lehen IBM edo IBM aipatu duzu (baliteke Estatu Batuetan edo arratsalde on baten batek entzutea podcasta).

Berriki, enpresa honek, Eusko Jaurlaritzarekin batera, Donostian, IBMedo IBM Quantum system Two gisa honetako Europako lehendabiziko ordenagailua inauguratu dute. Zuek ere erabiliko duzue?

ba, justu gure fakultatea nahiko inbolukratuta egon da ordenagailu honen inaugurazioan. Ordenagailu hori da munduko ordenagailu kuantiko potenteenetakoa, eta Estatu Batuetatik kanpo uste dut bi bakarrik daudela ezaugarri horietakoak. Hala ere, esan beharra dago quantum teknologia oraindik nahiko hasierako fasetan dagoen teknologia dela, eta ordenagailu hori dagoela bideratuta quantum konputazioko ikerketara. Adibidez, gure arloan, badakit logistika eta optimizazio problemak algoritmo kuantikoen bidez nola ebatzi daitezkeen aztertzeko erabili nahi dutela, baina ez du balio momentu honetan adimen artifizialeko edozein ataza ebazteko orduan. Nik, oraingoz, gutxienez, ez dut erabiliko, oraingoz ez dudalako konputazio kuantikoa erabiltzen oraingoz. Baina nire taldeko kide batzuk bai egiten dute ikerketa arlo horretan, eta bai izango dute erabiltzeko aukera. Eta gure ikasleek ere, Adimen Artifizialeko eta Ingeniaritza Informatikoko graduko ikasleek. Irakasgai bat daukat Fundamentals of Quantum Conputing, eta bertan ere aurreikusten da erabili ahal izango dutela ordenagailu hau.

Zorionekoak Informatika Fakultateko ikasleak! Ulertzen dut hori pribilegio bat dela, ezta?

Aukera oso ona da. Azkenean, momentu honetan, hain ordenagailu kuantiko gutxi daude, normalean algoritmoen bertsio kuantikoak probatzeko simuladoreak erabiltzen direla, eta ez benetako algoritmoak, eta orduan edukitzea benetako algoritmo bati akzesoa, oso interesgarria da.

Osasunera bueltatuko gara. Partaide zaren ikerketa taldean edo zure fakultatean egin dira ikerlanik arlo honetan osasunaren inguruan? Eta nola lagundu ahal dizue? Eta zein medikuntza arlotan uste duzu duela potentzial handiena adimen artifizialaren erabilerak?

Adibide bat jartzearren, duela urte batzuk nire ikerketa taldeko ikerlari batzuk Jerónimo Hernandez-González Iñak Inza eta José Antonio Lozano Donostia ospitaleko mediku talde batekin egon ziren lanean, eta in vitro ernalketan obuluen aukeraketa hobetzeko sistema batzuk diseinatu zituzten. Hori da adibide bat. Baina nire aldetik, nik egindako lana aipatzearren, duela gutxi hasi naiz Neurozientzia arloan tesi bat zuzentzen BioGipuzkoako ikerlari batekin eta nire taldeko beste ikerlari batekin. Eta helburua da adimen artifizialeko teknikak erabiltzea garunaren zahartzea neurtzeko edo aztertzeko. Eta fenomeno hau hobeto ulertzeko. Orduan pentsatu behar duguna da Medikuntza arloan datu izugarri pila sortzen direla, bai irudi moduan bai sentsore eta neurketetatik, eta askotan datu hauek ezin direla eskuz tratatu. Orduan, hor sartzen da, adimen artifiziala, eta hor bere garrantzia. Ildo horretan sakondu nahi nuke pixkatxo bat.

Nola lagundu dezake adimen artifizialak, adibidez, Alzheimerra edo Parkinsona bezalako gaixotasun neurodegeneratiboen iragarpenetan?

Bueno, momentu honetan iragarpena esatea igual askotxo da, baina Neurozientzietan sortzen diren datuak nahiko zailak direlako, paziente oso gutxi egoten dira normalean, edo gutxienez hemen, Euskal Herria mailan dauzkagun datu baseetan, eta bakoitzarentzat bere garunaren irudi asko dimentsio askotakoak, oso datu zaratatsuak dira. Orduan, datu konplikatuak dira adimen artifizialarentzat ere. Baina, esan bezala, oraintxe hasi berri dugun tesian, Iñigo Diazen tesian, helburua da garunaren irudiak erabiltzea garuna nola zahartzen den hobeto ulertzeko. Zehatzago, hizkuntzarekin zerikusia duten funtzioetan zentratzen gara. Oraingoz, paziente sanoekin gabiltza, baina abiapuntua da garunak eta haren zahartzeak normalean nola funtzionatzen duen hobeto ulertzeak agian, lagundu dezakeela zenbait gaixotasun lehenago hautematen. Ea zorterik dugun. Ondare proiektuko ikertzaile nagusia ere bazara. Adimen artifiziala erabiliz onura sozialeko ekimenak aurrera eraman nahi duen proiektua, alegia.

Zertan datza zehazki Ondare? Zer ezagutza arlo daude inplikatuta? Eta zer bilatzen duzue horrekin?

A, Bai, duela pare bat urte hasi genuen proiektu hau, eta hiru helburu nagusi ditu. Hasteko, denon onura bilatzen duten adimen artifizialaren aplikazioetan lan egitea. Baina ez hori bakarrik. Bigarren helburu bezala, adimen artifizialean interesa duen talde interdisziplinar bat sortzea ere nahi dugu, eta denon artean adimen artifizialari buruz hausnartzea. Azkenik, formakuntza ere da ardatz garrantzitsu bat. Proiektu onena, bai publiko orokorraren formakuntza, bai profesional mota ezberdinena, bai gure ikasleen formakuntza espezifikoak. Bakoitzarentzat formakuntza espezifikoak diseinatzen ditugu, arlo ezberdinak landuz, eta betiere adimen artifiziala eta onura soziala buruan izanda. Oraingoz, proiektua Informatika fakultateko hamar irakasleek osatzen dugu, eta ekimen ezberdinetan kolaboratu dugu Filosofiako, Soziologiako, Zuzenbideko, hezkuntzako, komunikazio zientzietako eta Enpresaritzako irakasle eta ikerlariekin. Bai Euskal Herrikoak eta baita unibertsitate europear batzuetakoak ere.

EHUko Informatika Fakultateak:

Sorpresa eta poz handia izan da. Egia esan, badakit jende oso potentea, neska oso potenteak aurkezten direla, eta ez zen lehenengo aldia aurkezten nintzela, eta, egia esan, ez nuen espero irabaztea. Ikusgarritasun aldetik izugarria izan da. Egia esan, ez nuen espero hainbeste tokitan agertuko nintzenik. Eta, bueno, sariaren helburua hori izanik, neurri batean pozgarria da emaitza hori ikustea. Gaur egun, gizartean dagoen mundu digitalaren beste irudi bat emateko balio badu, uste dut merezi duela emakumezkoen erreferente berriak sortzea, indartzea.

Esan duzun moduan, Gladis sariaren helburu nagusienetako bat da. Mundu digitalean emakumezko erreferente falta dagoela uste duzu? Bestela ez litzateke halako saririk egonene, ezta? Baina azalduko diguzu pixkatxo bat honen garrantzia?

Bai, generoaren kontua Informatika fakultatean eta batez ere Ondare proiektuan nahiko presente daukagun gaia da, eta ez da kasualitatea. Arazo bat da. Oso emakume gutxi gaude gure arloan, eta pentsa gure ikasleen %20a inguru bakarrik direla emakumeak. Honen aurrean, fakultateko emakumeak nahiko kontzientziatuta gaude duela urteetatik, eta urteak daramatzagu prentsan artikuluak idazten, irratian ateratzen, haur eta gazteentzat tailerrak egiten Informatika arloan emakumeen bisibilizazioa ahalik eta gehien handitzeko. Eta aurreko urtean ba okurritu zitzaigun gure ikasleak ere inbolukratzea haurrei tailerrak ematen, eta izugarrizko sorpresa hartu genuen 26 neska apuntatu zirenean boluntario. Hori, dauzkagun neska kopuruarekin, 26 pila bat da. Oso esperientzia polita izan zen, bai ikastoletan oso pozik geratu zirela, eta baita gure ikasleentzat ere. Eta aurten forma eman diogu. Ondare barruan tokitxo bat egin diogu. Izena jarri diogu, HackMorea deituko diogu, eta ikasleei formakuntza txiki bat eskainiko diogu. Kamisetak eta pegatinak egingo ditugu aurten a tope. Eta komunitate txiki bat sortzea lortzen badugu, eta gure neskak gaztetxoen erreferente bihurtu, zoragarria izango zen.

Nik pack osoa nahi dut, nahi dut kamiseta, nahi dut pegatina, bisera, mesedez! Entzun dizut esaten ez dugula utzi behar adimen artifiziala enpresa teknologiko handien esku soilik geratzen. Zer arrisku dago hori gertatuko balitz?

Ba, Enpresa horiek azkenean haien interes ekonomikoa dute helburu bakarra, edo gutxienez nagusiena, eta hori, oro har, ez da izaten denon onurarekin bateragarria. Adibidez, adibide argi bat da ingurumenari dagokionez. Argi dago adimen artifizialak energia asko kontsumitzen duela eta datu-zentro erraldoiek elektrizitate eta ur kantitate handiak behar dituztela funtzionatzeko. Eta ez dirudi gehiegi axola zaienik, ezta? Bestalde, enpresa teknologiko handiek adimen artifiziala garatzen dutenean, askotan gardentasun falta nabaria dago. Ez dakigu nola funtzionatzen duten zehazki, algoritmoek, nola erabiltzen dituzten gure datuak, nork kontrolatzen duen informazio hori, eta horrek botere handia ematen die enpresa gutxi batzuei, eta gizartearen gainetik jartzen ditu nolabait.

Eta Euskal Herrian, aipatu duzu datu zentro erraldoiak ur kantitate handiak erabiltzen dituztela, Euskal Herrian badugu halako datu zentro erraldoirik? Edo non daude gure datuak gordeta?

Ez, Euskal Herrian ez dugu horrelako zentro erraldoirik. Ez dago oraingoz. Gutxienez. Orduan, erabiltzen ari garen zerbitzuaren arabera, datuak joango dira alde batera edo bestera. Google microsoft edo horrelako enpresa handien zerbitzuak erabiltzen ditugunean, sortzen diren datuak haien datu zentroetara joaten dira. Gure kasuan, Europan badago normatiba bat exijitzen duena datuak Europan gorde behar direla. Beraz, joango lirateke Europako datu zentroren batera. Gaur aterako naiz pixkatxo batean gure gidoi zoragarri honetatik, baina gaur, justuan, Amazonen zentro hauetako bat erori da. Eta kontua da gure datuak Europan egon behar duten arren, edo datuek Europan egon behar duten arren, Virginia Estatuan omen zeuden bilduta. Eta gugan. Ez dakit. Nolabaiteko eragina izan du horrek? Hori normala da? Esan nahi dut gure datuak han egotea, edo berez, Normatiba aldetik hori esango nuke, datuak Europan gordetzeko beharra dagoela? Baina, bueno, esan bezala, enpresa horien datuen kudeaketa nahiko opakoa da, eta orduan zaila da ere jakitea zehazki nora doazen. Gero ere normatibaren letra txikia irakurrita, pentsatzen dut egongo direla moduak gauzak modu batera edo bestera egiteko. Eta bidea ere bai. Bidea egiten da ibili, ezta? Pentsatu, orain, hasiera batean, pixka bat baikorrak izan beharko genuke eta pentsatu gauza guztiak bezala bideratuko ditugula, ezta? diot nik. Saiatuko gara behintzat.

Zer egin genezake adimen artifiziala era demokratikoago batean garatzeko? Alegia, posible da guztiok artean erabakitzea zer-nolako adimen artifiziala nahi dugun eta zertarako nahi dugun?

Oso zaila da hori berez. Badaude iniziatiba batzuk. Adibidez, Espainiako Gobernuak izan du iniziatiba bat adimen artifizial sistemak modu hobeagoan eraikitzeko. Adibidez, datu kooperatibak sortuz, transparentzia aldetik eredu garbiagoak edo gardenagoak sortuz, alborapen gutxiagorekin, kodea eta eredua irekiak izatea. Badaude iniziatiba batzuk, baina arazoa da iniziatiba horiek ez daudela edo eredu horiek ez daudela denon eskura modu erraz batean, ez gutxienez. Beste teknologiko handien ereduekin konparatuta. Nahiko hasieran daude teknologika handien sistema horiek oso eskura daude, geroz eta gehiago egongo dira, eta, egia esan, gaur egun beste inork ez dauka gaitasunik horrelako sistema hain handiak eta hain potenteak hain azkar sortzeko eta gizarte guztira helarazteko. Orduan. Ba, puntu honetan nik uste dut kaleko jendearekin lana gehiago joan behar dela formakuntzatik. Gizartea formatu behar da. Uste dut jendeak adimen artifiziala erabili edo erabiltzen hasi dela nola funtzionatzen duen ondo jakin gabe, eta hortik datoz erabilera txar asko, ezjakintasun handia, sentsazionalismo handia ere. Orduan, gutxi gorabehera ulertzen badugu adimen artifizialeko ereduak nola ikasten duten eta nola funtzionatzen duten, kontzienteago izango gara gure informazio pila bat ematen ari garela, sistemak alborapenak dituztela, ez dutela beti asmatzen, failatzen dutela. Eta sortu dezakegu eztabaida bat edo hausnarketa bat formatua formazio batekin gaiaren inguruan. Gainera, honek ere erraztuko luke ulertzea zer limitazio dauzkan adimen artifizialak eta zertarako erabili dezakegun eta zertarako ez. Zalantzarik gabe, guztiok ikastarotxoak egin beharko genituzkeen adimen artifizialaren inguruan.

Hasiko gara bukatzen. Adimen artifizialak mundua ulertzeko ikuspegi ortodoxoena edo orokorrena mendetan botereak ezarri duen ikuspegiarekin erantzuten ahal digula aipatzen ari zara. Halako zerbait? Adibidez, nire galdera da, kolonizazioa pairatu duten lagunen datuak edo sexu-genero matrizaren hierarkian behe-behean daudenen datuak kontutan hartzen ditu? Esan nahi dut, Guk halako galderaren bat eginen bagenu, jende multzo hau kontutan izanen luke adimen artifizialak?

Erraz ulertzeko, adimen artifizialak zentzu horretan funtzionatzen du estatistikak funtzionatzen duen antzera. Pertsona multzo horiek, oro har, datu-baseetan gutxiago agertzen dira, arrazoi ezberdinengatik. Eta, orduan, ereduak entrenatzeko entrenatzen ditugunean, dauzkagun datu baseekin alborapenak agertzea nahiko ohikoa da. Arrazoia da ereduak normalean diseinatzen direla ahalik eta gehien asmatzeko, hau da, erroretaz txikiak izateko. Talde hauen datuak gutxiago agertzen direnez datu baseetan eredu hauek nahiz eta oso gaizki funtzionatu pertsona hauengan horrek ez dauka ia-ia eraginik batez besteko errorean, beste jende guztiarekin oso ondo funtzionatzen badu. Azkenean, guk ez badugu zehazki begiratzen zer gertatzen ari den, ez gara konturatzen pertsonaientzat ez duela funtzionatzen. Adibide tipikoa da, adibidez, aurpegia errekonozitzeko algoritmo edo sistema bat ikastea, ia denak pertsona txurien argazkiekin eta pertsona beltzaren argazki gutxi batzuekin bakarrik. Nahiz eta ereduak pertsona beltzekin oso gaizki funtzionatu, nola beste jende guztiarekin oso ondo funtzionatzen duen Bakarrik fijatzen baldin bagara bataz besteko errorean, ez gara konturatuko beltzekin oso gaizki egiten duela. Eta hori izan da urteetan zehar algoritmo ezberdinekin gertatu dena, alborapenak izan dituztela. Orduan, ereduak denontzat ondo funtzionatzea nahi badugu, espezifikoki diseinatu behar ditugu, haien helburuak birdefinituz. Hau da, bataz besteko errorea ez du izan behar ereduaren helburu nagusia. Eta orduan, ba, bueno, hori, datu sorta egokiagoak erabili eta abar, eta abar. Orduan lan handia dago hor, eta arlo hau da ikerketa lerro oso garrantzitsu bat gaur egun adimen artifizialaren munduan. Bueno, Usue, zalantzarik gabe. Beste behin gonbidatu beharko zaitugu honen bigarren partea entzun ahal izateko. Eskerrik asko, dena dela, gurera etortzeagatik. 1.000 esker eta asko eta asko ikasi dugu. Hemendik aurrera adimen artifiziala erabiltzerakoan kontzienteago izanen gara, eta inoiz fakultatetik gure datuak eskatzen badizkiguzue, gustura partekatuko ditugu, baina letra txikia oso ongi irakurri ondoren. Elkar gaitezen beste behin, esandakoa, ahalik eta lasterren, zuen ikerketaren ingurukoak goitik behera jakin nahi ditugu-eta. Eskerrik asko. Eta agur esan aurretik, eskerrak ere eman nahi dizkiegu EHUko Ikerketaren Gizarte Hedapenerako Zuzendaritzari, Bitartez, ikerketa taldeari, eta, nola ez, irakaskuntza sistema publikoari. Gogoan izan EHUko euskal Herriko podcasta campusa newsletarrean eta ohiko audio plataformetan entzun ahalko duzuela. 1.000 esker entzuteagatik. Eta laster arte. Aio.

Artificial de la EHU y, desde:

Buenos días, Usue.

Usue, mucha gente piensa que la inteligencia artificial nació con ChatGPT. Pero esto no es así, ¿verdad? ¿Desde cuándo se investiga en este campo y cuándo puede decirse que la Inteligencia Artificial es realmente Inteligencia Artificial?

da Lovelace ya teorizó hacia:

Oficialmente, la inteligencia artificial se consolidó como disciplina científica en 1956, en un congreso celebrado en Dartmouth College. Desde entonces, el campo ha tenido altibajos —épocas doradas y los llamados “inviernos de la IA”—, y ahora estamos nuevamente en uno de esos periodos de auge.

¿Qué ejemplos simples nos muestran que la Inteligencia Artificial lleva décadas entre nosotros?

por ejemplo: en la década de:

Otro ejemplo es el reconocimiento de voz: en los años 60, la máquina IBM Shoebox era capaz de reconocer algunas palabras y números. Hoy, esa tecnología sigue viva en asistentes digitales como Siri o Alexa. También los contestadores telefónicos automáticos, los filtros antispam del correo electrónico o los rivales virtuales de los videojuegos son ejemplos antiguos de IA. Todo ello muestra que no se trata de una moda reciente, sino del resultado de décadas de desarrollo.

Tu investigación se centra sobre todo en la minería y el análisis de datos temporales. Una vez recogidos los datos, vuestro trabajo consiste en identificar patrones, entender tendencias y hacer predicciones. ¿Dónde se aplica este tipo de investigación en la vida cotidiana?

Sí, la inteligencia artificial actual se basa sobre todo en aprender a partir de datos. En mi caso, trabajo especialmente con un tipo de datos llamados series temporales. Su característica principal es que se recogen a lo largo del tiempo: por ejemplo, las temperaturas horarias medidas durante un mes en un pueblo formarían una serie temporal. Si tenemos esas mismas mediciones en mil pueblos, ya tenemos un gran conjunto de datos. Mi trabajo consiste en extraer patrones de esos datos para clasificarlos, hacer predicciones o detectar anomalías.

Si lo pensamos un poco, este tipo de datos se generan en casi todos los ámbitos. Por ejemplo, en medicina, al monitorizar las constantes de un paciente, o en la industria, donde los sensores recogen continuamente información sobre el funcionamiento de las máquinas. La inteligencia artificial puede ayudarnos a extraer información útil de esos datos.

¿Y cómo os ayuda la IA a encontrar esos patrones o a hacer predicciones?

Los algoritmos de IA aprenden a partir de grandes conjuntos de datos: ven muchos ejemplos y generalizan. Por ejemplo, si queremos construir un modelo automático que prediga una enfermedad cardíaca concreta, reunimos electrocardiogramas de pacientes que la padecen y de otros que no, y los etiquetamos. Con todos esos datos, un algoritmo matemático y computacional genera un modelo que se ajusta lo mejor posible a nuestros datos, es decir, que clasifica correctamente a los pacientes. Una vez creado el modelo, podemos usarlo para predecir si nuevos pacientes están enfermos o no.

Hace poco mencionabas IBM. Esta empresa, junto con el Gobierno Vasco, ha inaugurado en Donostia el IBM Quantum System Two, el primer ordenador de este tipo en Europa. ¿Vosotros también lo usaréis?

Ese ordenador cuántico es uno de los más potentes del mundo y uno de los pocos fuera de Estados Unidos. Sin embargo, la tecnología cuántica aún está en una fase bastante inicial, y esa máquina se destinará a la investigación en computación cuántica, por ejemplo, para resolver problemas de optimización mediante algoritmos cuánticos. Pero no sirve para cualquier tarea de inteligencia artificial.

En mi caso no lo usaré, al menos por ahora, porque no trabajo con computación cuántica. Algunos compañeros de mi grupo sí lo hacen y podrán utilizarlo. Además, nuestros estudiantes del Grado en Inteligencia Artificial y de Ingeniería Informática tienen una asignatura llamada Fundamentals of Quantum Computing y se prevé que puedan probarlo.

¡Qué suerte los estudiantes de la Facultad de Informática! Supongo que es un privilegio, ¿no?

Sí, es una gran oportunidad. A menudo los algoritmos cuánticos se prueban en simuladores, así que poder utilizar un ordenador real es muy interesante.

Volviendo a la salud: ¿en vuestro grupo o en la facultad se han hecho investigaciones en este ámbito? ¿Cómo podéis contribuir y en qué áreas crees que la IA tiene mayor potencial?

Yo personalmente aún no he trabajado mucho en temas de salud, pero sí he tenido colegas que lo han hecho. Por ejemplo, hace unos años, algunos investigadores del grupo —Jerónimo Hernández-González, Iñaki Inza y Jose A. Lozano— colaboraron con médicos del Hospital de Donostia en el diseño de sistemas para mejorar la selección de óvulos en tratamientos de fecundación in vitro. Por mi parte, recientemente he comenzado a codirigir una tesis en neurociencia junto con otro investigador de mi grupo y otro del BioGipuzkoa, cuyo objetivo es usar técnicas de IA para medir y entender mejor el envejecimiento cerebral.

En medicina se generan enormes cantidades de datos —imágenes, mediciones, sensores—, y a menudo no pueden procesarse manualmente; ahí entra la IA.

¿Y cómo puede ayudar la IA en la predicción de enfermedades neurodegenerativas como el Alzheimer o el Parkinson?

Quizá “predicción” es mucho decir (risas). Los datos en neurociencia son complejos: hay pocos pacientes, pero muchísimas imágenes por persona, de alta dimensión y muy ruidosas… difíciles incluso para la IA.

En la tesis de Iñigo Díaz, que acabamos de iniciar, usamos imágenes cerebrales para comprender mejor el envejecimiento del cerebro, centrándonos en tareas y funciones relacionadas con el lenguaje. Por ahora trabajamos con personas sanas, pero entender cómo envejece el cerebro de forma normal puede ayudarnos en el futuro a detectar antes ciertas enfermedades.

También eres investigadora principal del proyecto “Ondare”, que busca crear un entorno común para desarrollar iniciativas con beneficio social mediante la IA. ¿En qué consiste exactamente? ¿Qué áreas abarca?

Sí, comenzamos el proyecto hace un par de años con tres objetivos principales: primero, trabajar en aplicaciones de IA con beneficio social; segundo, crear un grupo interdisciplinar interesado en reflexionar sobre la IA; y tercero, la formación, tanto para el público general como para distintos perfiles profesionales y nuestros estudiantes, diseñando programas específicos siempre con la utilidad social como eje.

De momento, el proyecto lo formamos diez profesores de la Facultad de Informática, y hemos colaborado con docentes e investigadores de Filosofía, Sociología, Derecho, Educación, Comunicación y Empresa, tanto de la EHU como de universidades europeas.

Tu visión social de la IA te llevó este año a ganar el V Premio Gladys. ¿Qué significa para ti este reconocimiento?

La verdad, fue una gran sorpresa y alegría. Sé que se presenta gente muy potente y no esperaba ganarlo. En cuanto a visibilidad, ha sido increíble —no imaginaba que aparecería en tantos sitios—, y eso me alegra mucho porque el objetivo del premio es precisamente dar visibilidad a mujeres en el entorno digital. Creo que es importante ofrecer otra imagen del mundo digital actual.

Uno de los objetivos del Premio Gladys es crear referentes femeninos. ¿Crees que siguen faltando mujeres referentes en el ámbito digital? ¿Cómo trabajáis este tema?

El género y el mundo digital son temas muy presentes en la Facultad y especialmente en el proyecto ONDARE. No es casualidad, porque es un problema: hay muy pocas mujeres en nuestro ámbito; solo alrededor del 20% de los estudiantes de la Facultad son mujeres.

Somos bastante conscientes de ello y llevamos años escribiendo artículos, participando en radios y organizando talleres para niños y jóvenes, con el fin de aumentar la visibilidad de las mujeres en informática. El año pasado se nos ocurrió implicar también a las alumnas en los talleres, y nos llevamos una sorpresa enorme cuando 26 se apuntaron voluntarias. ¡Con nuestros números, 26 es muchísimo! Fue una experiencia preciosa, tanto para los colegios como para ellas y para nosotras.

Este año lo hemos formalizado dentro de ONDARE, lo hemos llamado HackMorea, y daremos una pequeña formación previa a las alumnas antes de los talleres. Tendremos camisetas, pegatinas, de todo… Si logramos crear una pequeña comunidad y convertir a nuestras chicas en referentes, ¡será maravilloso!

¿Cuáles son los mayores retos para impulsar un uso socialmente beneficioso de la IA?

Uno de los retos es que no siempre es fácil obtener datos. En muchos ámbitos la recogida de datos no está sistematizada o no se realiza del modo que necesitamos, lo que dificulta construir buenos modelos. Pero creo que la IA ya es bastante conocida y probablemente esto cambiará con el tiempo.

Otro reto es la desconfianza del público. Se dicen tantas cosas alarmantes sobre la IA que mucha gente imagina lo peor. Hace falta mucha comunicación, y también investigación sobre transparencia y equidad en los modelos.

Has dicho que no debemos dejar la IA solo en manos de las grandes empresas tecnológicas. ¿Qué riesgos implica eso?

El principal riesgo es que esas empresas persiguen únicamente su interés económico, que no siempre coincide con el bien común. Por ejemplo, la IA consume muchísima energía: los enormes centros de datos requieren cantidades ingentes de electricidad y agua, y a las grandes corporaciones parece no preocuparles demasiado.

Además, suelen operar con poca transparencia: no sabemos cómo funcionan sus algoritmos, cómo usan nuestros datos ni quién controla esa información. Eso les otorga un gran poder y las sitúa por encima de la sociedad.

¿Tenemos centros de datos de ese tipo en Euskadi? ¿A dónde van entonces nuestros datos?

No, aquí no tenemos centros de datos de ese tamaño. Los datos viajan según el servicio que utilicemos. Sin ir tan lejos, muchas empresas tienen sus propios servidores internos para almacenar datos. En la EHU, por ejemplo, los servidores donde se guardan los datos de GAUR. Cuando usamos servicios de empresas como Google o Microsoft, nuestros datos van a sus centros de datos. En Europa, hay una normativa que obliga a que se almacenen dentro del continente, así que se distribuyen entre distintos centros europeos.

¿Qué podríamos hacer para desarrollar una IA más democrática? ¿Es posible decidir colectivamente qué tipo de IA queremos y para qué?

Existen iniciativas para construir sistemas de IA de manera más ética —como las cooperativas de datos o los proyectos de código abierto— que promueven transparencia y reducen sesgos, pero aún no son fácilmente accesibles para todos. Las grandes tecnológicas tienen los recursos y el ritmo que los demás no podemos igualar.

Por eso creo que el trabajo con la ciudadanía debe centrarse en la formación. Mucha gente usa la IA sin entender cómo funciona, y de ahí surgen malos usos y mucha desinformación. Si comprendemos un poco cómo aprenden y funcionan los modelos de IA, seremos más conscientes de la información que cedemos, de que los sistemas tienen sesgos y no siempre aciertan. Y podremos generar un debate más informado. También entenderemos mejor sus limitaciones y sus usos apropiados.

En cuanto al desarrollo más responsable, la regulación será clave. En Europa se ha creado recientemente la primera ley específica, el AI Act, que clasifica los sistemas según su nivel de riesgo y establece distintos requisitos según la categoría. Es una tecnología y una ley muy nuevas; habrá que ver cómo evolucionan y qué impacto tienen.

Mencionas que la IA responde desde una visión tradicional del mundo, la misma impuesta por el poder durante siglos. ¿Tiene en cuenta los datos de las personas colonizadas o de quienes ocupan posiciones inferiores en las jerarquías de género o sexo?

En general, los datos de esos grupos están poco representados en las bases utilizadas para entrenar modelos, y por eso los sistemas de IA suelen mostrar sesgos. Esto se debe a que los modelos se diseñan para minimizar el error medio: si hay pocos datos de un grupo, los errores con ese grupo apenas afectan al promedio. Por ejemplo, si en un sistema de reconocimiento facial se usan muy pocas imágenes de personas negras, aunque funcione fatal con ellas, el error medio seguirá siendo bajo si acierta con la mayoría. Si solo miramos esa métrica, pensaríamos que el modelo es excelente, pero en realidad no reconoce bien los rostros negros.

Si queremos que los modelos funcionen bien para todos, hay que diseñarlos específicamente con ese objetivo, redefiniendo sus metas y utilizando conjuntos de datos más adecuados. Este es hoy un tema central en la investigación en IA.

Gracias, Usue, por acompañarnos. Hemos aprendido mucho. A partir de ahora, usaremos la Inteligencia Artificial de manera más consciente y, si alguna vez desde la facultad nos pedís nuestros datos, tras leer la letra pequeña, claro… los compartiremos encantados.

Antes de despedirnos, agradecemos a la Dirección de Difusión Social de la Investigación de la Universidad del País Vasco, al grupo Bitartez y al sistema público de enseñanza. Recuerda que este episodio del EHUpodcast puede escucharse en el boletín Campusa Newsletter y en las principales plataformas de audio. ¡Muchas gracias y hasta pronto!

nce at the UPV/EHU and, since:

Good morning, Usue.

Good morning!

Usue, many people think that artificial intelligence was born with ChatGPT. But that's not the case, is it? How long has this field been researched, and since when can we say that Artificial Intelligence is truly Artificial Intelligence?

lace already theorized around:

What simple examples show us that Artificial Intelligence has been with us for decades?

us, but, for example: in the:

Your research focuses mainly on time series data mining and analysis. Once the data is collected, your job consists of identifying patterns, understanding trends, and making predictions. Where is this type of research applied in everyday life?

Yes, current artificial intelligence is primarily based on learning from data. In my case, I work especially with a type of data called time series. Their main characteristic is that they are collected over time: for example, the hourly temperatures measured during a month in a town would form a time series. If we have those same measurements in a thousand towns, we already have a large dataset. My job is to extract patterns from this data to classify them, make predictions, or detect anomalies. If we think about it, this type of data is generated in almost every field. For example, in medicine, when monitoring a patient's vital signs, or in industry, where sensors continuously collect information about the functioning of machinery. Artificial intelligence can help us extract useful information from that data.

And how does AI help you find those patterns or make predictions?

AI algorithms learn from large datasets: they see many examples and generalize. For example, if we want to build an automatic model that predicts a specific heart disease, we gather electrocardiograms from patients who have it and from others who do not, and we label them. With all that data, a mathematical and computational algorithm generates a model that adjusts as closely as possible to our data, that is, one that correctly classifies patients. Once the model is created, we can use it to predict whether new patients are sick or not.

You recently mentioned IBM. This company, along with the Basque Government, has inaugurated the IBM Quantum System Two in Donostia, the first computer of its kind in Europe. Will you also use it?

That quantum computer is one of the most powerful in the world and one of the few outside the United States. However, quantum technology is still in a very initial phase, and that machine will be destined for research in quantum computing, for example, to solve optimization problems using quantum algorithms. But it is not useful for all artificial intelligence tasks. I will not use it, at least for now, because I don't work with quantum computing. Some colleagues in my group do, and they will be able to use it. Furthermore, our students in the Bachelor's Degree in Artificial Intelligence and Computer Engineering have a subject called Fundamentals of Quantum Computing, and it is expected that they will be able to test it.

How lucky the students at the Faculty of Informatics are! I suppose it's a privilege, isn't it?

Yes, it is a great opportunity. Quantum algorithms are often tested in simulators, so being able to use a real computer is very interesting.

Returning to health: has your group or the faculty conducted research in this area? How can you contribute, and in which areas do you think AI has the greatest potential?

I personally have not worked much on health topics yet, but I have had colleagues who have. For example, a few years ago, some researchers from the group—Jerónimo Hernández-González, Iñaki Inza, and Jose A. Lozano—collaborated with doctors from Donostia Hospital on the design of systems to improve egg selection in “in vitro” fertilization treatments. For my part, I recently started co-directing a thesis in neuroscience together with another researcher from my group and another from BioGipuzkoa, whose objective is to use AI techniques to better measure and understand brain aging. In medicine, enormous amounts of data are generated—images, measurements, sensors—and often they cannot be processed manually; that's where AI comes in.

And how can AI help in the prediction of neurodegenerative diseases such as Alzheimer's or Parkinson's?

Perhaps "prediction" is saying too much (laughs). Data in neuroscience is complex: there are few patients, but many images per person, high-dimensional, and very noisy... difficult even for AI. In Iñigo Díaz's dissertation, which we have just started, we use brain images to better understand brain aging, focusing on tasks and functions related to language. For now, we are working with healthy people, but understanding how the brain ages normally can help us detect certain diseases earlier in the future.

You are also the principal investigator of the "Ondare" project, which seeks to create a common environment for developing initiatives with social benefit through AI. What exactly does it consist of? What areas does it cover?

Yes, we started the project a couple of years ago with three main objectives: first, to work on AI applications with social benefit; second, to create an interdisciplinary group interested in reflecting on AI; and third, training, both for the general public and for different professional profiles and our students, designing specific programs always with social utility as the core focus. Currently, the project is made up of ten professors from the Faculty of Informatics, and we have collaborated with teachers and researchers in Philosophy, Sociology, Law, Education, Communication, and Business, from both the UPV/EHU and European universities.

Your social vision of AI led you to win the 5th Gladys Award this year. What does this recognition mean to you?

Honestly, it was a great surprise and joy. I know very powerful people apply, and I did not expect to win. In terms of visibility, it has been incredible—I didn't imagine it would appear in so many places—and that makes me very happy because the objective of the award is precisely to give visibility to women in the digital environment. I think it is important to offer another image of the current digital world.

One of the objectives of the Gladys Award is to create female role models. Do you think there is still a lack of female role models in the digital field? How do you work on this issue?

Gender and the digital world are very present topics at the Faculty and especially in the ONDARE project. It is no coincidence, because it is a problem: there are very few women in our field; only around 20% of the Faculty's students are women. We are quite aware of this and have been writing articles, participating in radio shows, and organizing workshops for children and young people for years, with the aim of increasing the visibility of women in computer science. Last year, we came up with the idea of involving the female students in the workshops as well, and we were enormously surprised when 26 volunteered. With our numbers, 26 is a huge number! It was a beautiful experience, both for the schools and for them and for us. This year we have formalized it within ONDARE, we have called it HackMorea, and we will provide a small preliminary training to the female students before the workshops. We will have t-shirts, stickers, everything... If we manage to create a small community and turn our girls into role models, it will be wonderful!

What are the biggest challenges to promoting a socially beneficial use of AI?

One of the challenges is that it is not always easy to obtain data. In many areas, data collection is not systematized or is not carried out in the way we need, which makes it difficult to build good models. But I think AI is already quite well-known, and this will probably change over time. Another challenge is public distrust. So many alarming things are said about AI that many people imagine the worst. A lot of communication is needed, as well as research on transparency and equity in the models.

You said that we should not leave AI solely in the hands of big tech companies. What risks does that entail?

The main risk is that these companies pursue only their economic interest, which does not always align with the common good. For example, AI consumes a lot of energy: the enormous data centers require huge amounts of electricity and water, and the large corporations do not seem too concerned about it. Furthermore, they usually operate with little transparency: we do not know how their algorithms work, how they use our data, or who controls that information. This gives them great power and places them above society.

Do we have data centers of that type in the Basque Country? Where do our data go then?

No, we do not have data centers of that size here. Data travels depending on the service we use. Without going that far, many companies have their own internal servers to store data. At the EHU, for example, the servers where GAUR data is stored. When we use services from companies like Google or Microsoft, our data goes to their data centers. In Europe, there is a regulation that requires data to be stored within the continent, so it is distributed among different European centers.

What could we do to develop a more democratic AI? Is it possible to collectively decide what kind of AI we want and for what purpose?

There are initiatives to build AI systems in a more ethical way—such as data cooperatives or open-source projects—which promote transparency and reduce biases, but they are not yet easily accessible to everyone. Big tech has the resources and pace that the rest of us cannot match. That is why I believe that work with the public must focus on education. Many people use AI without understanding how it works, and that leads to misuse and a lot of misinformation. If we understand a little about how AI models learn and work, we will be more aware of the information we give away, that systems have biases and are not always right. And we can generate a more informed debate. We will also better understand their limitations and appropriate uses. Regarding more responsible development, regulation will be key. Europe has recently created the first specific law, the AI Act, which classifies systems according to their level of risk and establishes different requirements based on the category. This is a very new technology and law; we will have to see how they evolve and what impact they have.

You mention that AI responds from a traditional vision of the world, the same one imposed by power for centuries. Does it take into account the data of colonized people or those who occupy lower positions in gender or sex hierarchies?

In general, the data of these groups are underrepresented in the datasets used to train models, and that is why AI systems often show biases. This is because the models are designed to minimize the average error: if there is little data for a group, errors with that group hardly affect the average. For example, if very few images of black people are used in a facial recognition system, even if it works poorly with them, the average error will still be low if it gets the majority right. If we only look at that metric, we would think the model is excellent, but in reality, it does not recognize black faces well. If we want the models to work well for everyone, we must design them specifically with that goal, redefining their objectives and using more appropriate datasets. This is currently a central topic in AI research.

Thank you, Usue, for joining us. We have learned a lot. From now on, we will use Artificial Intelligence more consciously and, if you ever ask us for our data from the faculty, after reading the fine print, of course... we will happily share it.

Before saying goodbye, we thank the Directorate for the Social Diffusion of Research at the University of the Basque Country, the Bitartez group, and the public education system. Remember that this episode of the EHUpodcast can be listened to in the Campusa Newsletter and on the main audio platforms. Thank you very much, and see you soon!

Chapters

Video

More from YouTube