La investigadora que explica tecnología en YouTube: “De la inteligencia artificial solo nos llegan las malas noticias”

La investigadora que explica tecnología en YouTube: “De la inteligencia artificial solo nos llegan las malas noticias”

Jordan Harrod, investigadora en ingeniería biomédica y 'youtuber'
Jordan Harrod, investigadora en ingeniería biomédica y ‘youtuber’LINDSEY MICHELLE WILLIAMS

Jordan Harrod (New Jersey, 1996) tiene una doble vida. En la mitad que estaba dentro de sus planes se dedica a la investigación en ingeniería biomédica. En el marco de su doctorado, estudia lo que ocurre en el cerebro cuando está bajo los efectos de la anestesia y desarrolla métodos para medir la actividad cerebral.

La mitad con la que no contaba es la de youtuber. ¿Puede la inteligencia artificial cambiar nuestros recuerdos?, ¿identificar nuestras emociones?, ¿evitar el cambio climático?, ¿detectar el coronavirus?, ¿generar diversidad?, ¿ser inteligente? Estas son algunas de las preguntas que Harrod ha ido respondiendo desde que inauguró su canal de YouTube hace tres años. “Estos sistemas no son neutrales, pueden tener consecuencias que no esperamos”, explica a EL PAÍS en una entrevista por videoconferencia.

Más información

La investigadora, que pisó un laboratorio por primera vez con 16 años y encontró su ecosistema perfecto ―”me gusta aprender con las manos en la masa”―, ha visto lo que empezó como una afición convertirse en un empleo. Ahora tiene casi 70.000 seguidores, una agencia y cientos de vídeos a sus espaldas. “El único lado malo es el coste del éxito. Ahora el canal requiere tanta energía como el doctorado”, admite.

Pregunta. ¿Echa en falta un tercer empleo más convencional?

Respuesta. En la universidad hice prácticas en la industria farmacéutica. Allí me di cuenta de que la mayoría del trabajo que se hace es aplicar un conjunto de habilidades muy concretas a un puñado de proyectos. Me interesa mucho más tener un proyecto que gestiono yo misma, aunque eso implique aprender un montón de cosas que no sé para poder avanzar con ello.

P. ¿El aprendizaje automático es una de ellas?

R. Pasé un verano en Stanford haciendo investigación en aprendizaje automático e imagen médica y estaba interesada en aprender más. Pero no estaba segura de cómo iba a encajar en mi doctorado. El canal de YouTube es una manera de mantenerme al día con las novedades en este campo incluso aunque no forme parte de mi tesis. Sabía que no quería hacer un doctorado 100% basado en aprendizaje automático.

P. ¿Por alguna razón en particular?

R. Sencillamente no me gusta estar todo el día programando. Cuando pasé aquel verano en Stanford hice eso. Al cabo de un tiempo se vuelve aburrido y solitario. Creo que muchos laboratorios de programación pura tienden a ser menos sociales. La gente teletrabaja con mayor frecuencia. Además, me gusta construir cosas, desmontarlas y volver a montarlas. En ese ámbito no podía hacer gran cosa físicamente.

Jordan Harrod durante su intervención en TEDXBeacon Street
Jordan Harrod durante su intervención en TEDXBeacon StreetJohn Werner

P. ¿Cómo nació el canal de YouTube?

R. Todo empezó cuando estaba en el instituto. Fui a un programa llamado Splash que hace anualmente el MIT que tiene todo tipo de cursos: fui a clases de cadenas de mails, memes, ruso, química de los explosivos… Es un programa muy interesante que te expone a temas que no encontrarías en la educación convencional.

Cuando llegué a la universidad, en Cornell, estaban empezando su programa Splash y un amigo me registró como profesora. Acabé impartiendo cuatro años de clases sobre como crear superpoderes con ingeniería. Quería hacer algo que fuese interesante para estudiantes de colegio e instituto.

Después empecé a escribir artículos de política científica en medios especializados, pero perdí el interés porque la audiencia que llega a esos escritos es la gente que ya está interesada en la ciencia. Mi objetivo era llegar a un público más amplio y pensé que YouTube era una opción interesante.

P. ¿Ha cambiado el concepto que tienes de esta tecnología?

R. Sí. Siempre está cambiando. Antes equiparaba aprendizaje automático e inteligencia artificial y lo asociaba específicamente con redes neuronales, porque de eso hablaba la gente. Ahora sé que es mucho más, especialmente si miramos fuera de la arquitectura de modelos y los métodos de optimización.

P. ¿Cuándo se percató del éxito del canal?

R. Durante los primeros seis meses, conseguí unos 500 suscriptores. Entonces, Austin McConnel ―otro youtuber con más de un millón de seguidores― publicó un vídeo titulado 5 canales geniales con menos de 1.000 suscriptores. Y no tengo ni idea de cómo me encontró, pero me añadió a la lista y pasé de 500 a 5.000 en un día. Esa fue la primera pista.

Entonces me uní a mi agencia de patrocinio. Ese fue el punto de inflexión en el que dije: “De acuerdo, esto ahora es un negocio que yo gestiono”. Ahora estoy en el punto de tener que lidiar con acuerdos legales, contratar editores y en cierto modo actuar como jefa de otras personas.

P. ¿Teme que se le agoten los ángulos desde los que abordar estas tecnologías?

R. Todo el mundo llega a YouTube temiendo quedarse sin ideas. Pero conforme el canal crece y alcanza a una audiencia, el problema es el contrario. La mayoría de mis suscriptores son gente curiosa, adultos jóvenes que no necesariamente son expertos en estos campos, pero tienen preguntas interesantes sobre cómo esas cosas pueden afectar a nuestras vidas. Esa es la audiencia que busco, el problema es que el porcentaje de mujeres está en un 22%, me gustaría verlo aumentar.

P. Su vídeo más visto es el que dedicó a responder a la pregunta de si la inteligencia artificial puede cazarnos copiando en un examen. ¿Contaba con ello?

R. Sí y no. Pensaba que iba a ir bien porque lo grabé durante la pandemia y la gente estaba preocupada por estos temas. No esperaba que se recomendase a gente que está buscando maneras de copiar en sus exámenes. El vídeo no habla de eso, pero ahora recibo un montón de mensajes privados de gente que está en el instituto y quiere saber cosas como dónde colocar sus chuletas para que estén fuera de la vista del programa. No voy a ayudarles a hacer trampas, pero literalmente no lo sé.

P. ¿Qué otras facetas de la inteligencia artificial cautivan a las audiencias de YouTube?

R. El reconocimiento facial tiende a recibir mucha atención o cualquier cosa sobre cómo entrenar tu primer modelo de aprendizaje automático. Además, las preguntas básicas del tipo ¿Cómo funciona la inteligencia artificial? suelen ir bien, no necesariamente a corto plazo, sino con el tiempo.

P. Si pudiera elegir tres cosas que todo el mundo debe saber sobre inteligencia artificial, ¿con qué se quedaría?

R. Lo primero es que no es neutral. En el campo académico se suele encontrar la narrativa de que los algoritmos son árbitros neutrales de los hechos y no es el caso. Tanto en estudios sociológicos como empíricos podemos ver cómo impactan a gente de distintos grupos y como amplifican los sesgos de los datos. Los algoritmos son tan neutros como la gente que los crea, y todo el mundo tiene sus propios sesgos.

Otra idea importante es que lo que llamamos inteligencia artificial es muchas veces un blanco en movimiento, es un término muy amplio que tiende a la exageración y que puede aplicarse a distintas cosas. Hay muchas herramientas que están tan normalizadas que no las consideramos inteligencia artificial, como los motores de búsqueda. Hay que recordar que hay muchas maneras en que la inteligencia artificial nos afecta.

Lo último es que cualquiera puede meterse en este campo. Puedes llegar desde diferentes disciplinas, no necesitas haber estudiado matemáticas. Hay muchas oportunidades para la gente que hace investigación en otros ámbitos.

P. ¿Por qué perdura la brecha entre el modo en que funcionan estos sistemas y lo que el público general sabe de ellos?

R. Pasa como con otras tecnologías: como norma general, la gente no necesita saber cómo funcionan en su día a día. Ahora algunos niños están empezando a aprender sobre ello en el colegio, pero para la mayoría de los adultos no fue así. Además, lo que aprendemos sobre inteligencia artificial y aprendizaje automático es lo que sale en las noticias: exageraciones o cosas malas. Esta es una perspectiva muy limitada de cómo funcionan estos sistemas y qué significan para una persona normal.

El principal argumento para cerrar esa brecha es el mismo que empleamos para enseñar a los niños a usar ordenadores en el colegio y enseñarles competencias digitales para que puedan usar internet y saber si lo que están viendo es información cierta o no. Estos sistemas con los que estamos interactuando tienen ramificaciones significativas en todas nuestras vidas. No necesitamos tener un doctorado, pero sí deberíamos ser capaces de identificarlos o manejarlos. Lo hacemos con la literatura, la historia, los ordenadores, la desinformación… No veo por qué no podríamos hacerlo con la inteligencia artificial.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Valoración*

×

Hola

Deseas mayor información, escríbeme.

×