Publicador de contidos
Publicador de contidos

Medra a demanda de perfís humanísticos para o desenvolvemento da intelixencia artificial

Medra a demanda de perfís humanísticos para o desenvolvemento da intelixencia artificial

A industria tecnolóxica demanda profesionais da filosofía, psicoloxía, filoloxía ou do dereito

G24.gal 23/05/2024 14:40

Naceron hai décadas, pero a grande expansión dos sistemas de intelixencia artificial é agora. Son parte da nosa actividade cotiá, e deséñanse para que fagan as cousas coma nós. 

"Para que fagan ben esas cousas e interaccionar con eles, temos que usar ferramentas dos ámbitos que estudan como interaccionamos as persoas", explica Alberto Bugarín, catedrático de intelixencia artificial na Universidade de Santiago. Pon exemplos: "falamos da neurociencia, da psicoloxía ou da lingüística", di.

Así que do lado dos perfís de ciencias puras, no deseño da IA traballan tamén os das sociais e humanidades. Xa o notan en Filoloxía: cóntanos Martiño, estudante de Filoloxía Galega, que prevé que haxa quen escolla esta carreira "de cara a dedicarse á intelixencia artificial e á lingüística de corpus". Así o fixo Lucía, que cursa un máster en lingüística aplicada: "Agora vese que temos un oco na produción de lingua para as máquinas, o máis parecida posible á linguaxe humana".

Pero ademais de falar coma nós, a intelixencia artificial debera mesmo mellorarnos en canto á protección dos dereitos e valores. Para avaliar a ética da IA, demándanse humanistas.

"Os perfís de Filosofía ou doutras ramas de Humanidades empezan a consultarse para facer estas avaliacións dos sistemas", afirma Martín Pereira, director do departamento de Filosofía e Antropoloxía da USC.

A súa función: facer "auditorías do algoritmo". Comprobar "que non teñan nesgos, que sexan eticamente responsables, ou custo ambiental que ten adestralos", di Pereira.  

Empezan a demandarse eses perfís, e máis que se demandarán: a Unión Europea aprobou unha lexislación pioneira sobre intelixencia artificial, e haberá que revisar as aplicacións.

"A normativa vai obrigar a ter que modificalas ou adaptalas -explica Bugarín- e nesa adaptación é imprescindible o rol que xogan estes profesionais. Falamos da neurociencia, da perspectiva xurídica e de todas estas".

Auditarán os algoritmos para evitar que sexan discriminatorios ou atenten contra a nosa intimidade. Ábrense novas oportunidades laborais para construír a ética da intelixencia artificial.

Publicidade
Publicidade
Publicidade
Publicidade