Lucas Gómez Portillo
"Con la IA hay dos certezas, que es indispensable regularla y que es imposible hacerlo"
El especialista en derecho administrativo y tecnología, habla sobre las posibilidades que existen de regular el uso de la IA. También reflexiona sobre el futuro del trabajo.El impacto más urgente y visible se da en el ámbito laboral, donde la automatización de tareas creció del 10% a cerca del 30% a nivel global. Esto pone en riesgo incluso a profesionales especializados, como los programadores, cuyas tareas son fácilmente automatizadas por la propia IA. La automatización genera una gran desigualdad, ya que las nuevas oportunidades laborales exigirán una formación que no estará al alcance de los jóvenes sin recursos. Frente a esta crisis, que algunos prevén con un salto sin retorno en solo dos años, la clave es incorporar el factor humano y ético en el desarrollo tecnológico. Gómez Portillo llama a la dirigencia a evitar repetir el error de la Revolución Industrial, donde la regulación llegó tarde, y a centrarse en definir no solo lo que la IA puede hacer, sino lo que debe hacer, para así tener la capacidad de construir y aplicar límites efectivos.
Lucas Gómez Portillo es un abogado especialista en derecho administrativo y en tecnología, esa rama del derecho le permite estudiar lo referido al tema de la regulación de la Inteligencia Artificial (IA).
-Se hace mucho hincapié en que sí no hay alguien que se ocupe de la regulación de la IA, las desigualdades serán más grandes en distintos ámbitos. Otros son más optimistas. Contame vos qué está pasando, cómo lo ves, qué podemos hacer acá y qué puede pasar en Argentina.
-Lo que se puede observar primero es la dificultad de la regulación en este tema, que ya un poco viene desde las redes sociales que fue toda la primera etapa de esto. En realidad, esto es un segundo capítulo para hacer un corte de todo lo que fueron las redes sociales y toda la dinámica que, como sociedad global, hemos ido construyendo a partir del desarrollo de internet y de las plataformas como los celulares. Todo eso ha ido construyendo un escenario que hoy habilita la aparición de la inteligencia artificial.
Hace dos años y medio, en otra entrevista que tuvimos por la aparición de Chat GPT, habíamos hablado que no se usaba mucho. Y hoy, a 2 años y medio, la mayoría de la población ha tenido alguna experiencia. También en esa entrevista, yo consideraba que no tenía mucho sentido ponernos a hablar sobre la regulación de algo de lo que todavía no teníamos mucho conocimiento de qué se trataba. Y hoy, hay dos cosas que son posiblemente certezas, una que es indispensable regularlo y la otra quizás es que es imposible regularlo.
Entonces estamos en una situación de una ambigüedad que difícilmente resolvamos. Esto viene a una velocidad a la que no está acostumbrado el ser humano en general, y además no tiene estructuras institucionales. Pero también hay ciertos consensos sociales; o sea, la sociedad va habilitando algunas cosas. Algo similar sucedió con las redes sociales, la gente habilitó la interferencia en la vida privada entregando los datos voluntariamente, y lo sigue haciendo. En este momento nadie podría haber planteado como algo positivo su regulación.

O sea, la mayoría de la población lo consume, lo usa, lo ve como como una herramienta desde lo lúdico hasta lo laboral, y ahí está el impacto mayor que esto tiene y que difícilmente permita una regulación; no se lo va a tomar como algo positivo, sino como una invasión incluso al ejercicio de libertades individuales y demás cosas.
Eso, por un lado, y lo otro es la dificultad porque tiene un montón de aristas de muy difícil regulación. Primero porque hay poca gente que conoce el tema en términos de poder operativizar regulaciones que sean efectivas, debido a que estos sistemas están manejados por pocas empresas que controlan el mercado. Por otra parte, tampoco conocemos el ala China, que también tiene un desarrollo en esto, pero mucho más integrado a un sistema productivo, lo tienen más más acoplado a otras estructuras. Si bien compiten con las empresas norteamericanas, tienen otra lógica que es de mayor regulación y direccionamiento del sistema. Es como que son dos modelos que están dándose, el de China y el del Estados Unidos y de hecho son como dos flujos que se retroalimentan.
Algo similar pasa con la salud y la IA. No sé si alguien identifica como un problema hoy en día la IA en ese campo y lo puede ver más como una posibilidad también, porque de hecho eso es lo que tiene. Pero sí hay algunos que lo ven como un riesgo. Están las dos cosas y eso hace que se dificulte la regulación, porque también todavía está en proceso y meterse a regular puede dificultar el desarrollo de determinadas cosas que tienen una potencialidad muy positiva para para la cura de enfermedades, o para solucionar problemas sociales muy graves.
Entonces, eso también es una dificultad como lo es también saber qué vamos a regular y quién lo va a hacer. Porque hoy un Estado si se pone a regular la IA en forma aislada no tiene mucho sentido. Tendría que ser un organismo supranacional, pero quién lo haría si hoy también está medio atomizado el esquema internacional con esto. Vimos que hay dos grandes bloques, pero a la vez hay muchos países que están jugando e interactuando entre sí con diferentes incentivos e intereses. Es muy difícil porque si se decide que todos tienen que regular y alguien no lo hace, el que no reguló puede generar una diferencia competitiva que nadie estaría dispuesto a ceder. Y también generar un gran problema.
Todos estamos de acuerdo que la energía nuclear tiene potencialidad positiva para la salud, para la energía y para un montón de cuestiones productivas; pero también somos muy conscientes de que es peligrosa. Quizás lo que pasa con la IA es que los riesgos que tiene, y que los tiene, no están no están tan visibles todavía. Están en charlas, en libros y películas de ciencia ficción, pero no son palpables todavía
- ¿Qué hay que hacer entonces?
-Creo que primero hay que ponerse ya a pensarlo, en la otra charla también hablábamos de esto de las dificultades que tiene la política para meterse en el tema y más hoy en día que en Argentina hay un discurso que considera que cualquier regulación puede ser tomada como amenaza. Entonces quizá no es el mejor momento para hacer la regulación, pero sí para pensarla. Sobre todo, porque vamos a ir pasando por distintos niveles que construyen nuevas complejidades y que van a tener que ser atendidas así no actuamos desde el apuro o la urgencia y muy condicionados, que es lo que puede pasar ahora.
-Es como imposible no tocar el tema trabajo.
-En esto también todavía creo que no hay buena información, sobre todo en Argentina, me parece que eso habría que construirlo. Cuando hablamos hace 2 años y medio, yo te decía, que había estudios que decían que podía impactar sobre el 10% de los puestos de trabajo, automatizar el 10% de las tareas, no necesariamente implicaba desplazar al 10%, pero sí que corría riesgo porque lo que se automatiza y si además es más económico y eficiente, bueno, los empresarios van a tender a ir hacia ahí.
Actualmente el porcentaje está más cerca del 30%. O sea, es bastante lo que ha crecido esa esa proporción. En Argentina por ahí es menor, porque todavía el impacto es menor por la capacidad que tenemos, entonces bueno, todo demora un poquito más, pero va en esa tendencia y es una tendencia grande.
Y ahí se va mezclando entre el uso de la herramienta para mejorar la productividad, que luego hace que todo el mundo lo haga, desde un estudiante hasta un profesional médico o lo que sea. Y al usarla la vamos perfeccionando y ayudamos a la automatización de las tareas.
El trabajo va teniendo impacto, quizás lo que pasa es que no se registra. En Argentina se mezcla con la crisis, pero está y va de la mano, porque todo eso va haciendo que se baje la necesidad de cantidad de horas humanas.
Es interesante tenerlo presente porque también, de nuevo es difícil poner el límite o regular eso. En estas discusiones que se están dando ahora sobre reforma laboral deberían considerarlo pero pasa que tienden más a una visión típica de flexibilización.
-Elon Musk ha dicho hace poco que en 5 años el tema laboral va a estar muy complicado por el avance de la IA. Hasta planteó el ingreso universal, un tema que en Argentina y en otros lugares es controversial.
-Desde el inicio estos mismos sectores tecnológicos que desarrollaron estas cosas, planteaban el tema del ingreso universal, con lo cual a mí me da para sospechar porque por regla, esos mismos sectores, incluso uno mismo intuitivamente puede pensar, que no es lo preferible que se pierda el trabajo porque el trabajo tiene un montón de otras cosas, que van más allá del ingreso, y que están vinculadas con la realización humana y con el relacionamiento y la vinculación que se pierde si no se trabaja.
También dudo que el ingreso sea una cantidad de dinero necesaria para poder vivir dignamente, pero aun cubriendo determinadas necesidades, genera otros impactos el no trabajo. Entonces, lo que habría que pensar en realidad es que otros trabajos se van a desarrollar e ir posicionándonos ahí; que también tendrán miles de dificultades, como por ejemplo, alguna vez lo hablamos sobre el tema de la educación. Educar para que haya programadores y demás, lo cual si bien para mí está bueno y no hay que abandonarlo, porque es como un modo de también de meterse en la discusión tecnológica; pero hoy ya los programadores están teniendo problemas de empleo. Esto es un llamado de atención fuerte, que los primeros que crean esto empiezan con problemas de empleo, porque se puede automatizar mucho la tarea de desarrollo de código, de testearlos; hay un montón de tareas que automatiza muy sencillamente el mismo sistema, va mejorando el desarrollo, automáticamente va mejorando la programación sola, sin intervención humana.
- ¿Qué puede pasar con un chico que hoy, está con problemas en la escuela que le cuesta llegar? Porque bueno, no tiene los recursos, no tiene los ingresos, la familia es pobre, tampoco tiene calificación. ¿Cómo hace frente a este panorama?
-Es como algo contradictorio, porque por un lado tiene un mundo de oportunidades aparentes, porque esto es un deseo de desarrollo que sí, de hecho, está el alcance de la mano, nunca hubo tanta cercanía a la tecnología. El celular que puede llegar a tener ese chico es mucho más poderoso que las computadoras que teníamos nosotros de chicos. Pero lo cierto es que son pocas las posibilidades reales; o sea, el sistema también vende un modo de desarrollo que dice que todo tiene que ser rápido, entonces quizá se piensa que es mejor apostar o ingresar al mercado de no sé qué, y meterse a timbear o trabajar en las plataformas porque te da libertad.
Hay una parte de eso, es cierto que también el sistema te da la disponibilidad, vos haces lo que querés, también con un nivel de precarización y de limitación que es muy fuerte, pero ese mismo chico pierde la posibilidad de desarrollarse cuando está en esa vorágine de ver que todo debería ser más fácil y demás; porque las cosas en la vida real son bastante más complejas y eso no lo ha resuelto la inteligencia artificial y posiblemente sea bastante más difícil lo que venga.
Por esto mismo, porque las posibilidades van a ser pocas porque vamos a tener segmentos de mercado totalmente automatizados, no va a haber trabajo ahí, para trabajar ahí tenés que formarte y las posibilidades de formarte no van a estar al alcance de la mano de cualquiera. Además, cada vez los chicos tienen menos iniciativas, porque lo que buscan es lo instantáneo. Lo que hay que buscar es generar nuevos incentivos para que ese chico, se integre en un lugar y quizás no se pueda hacer otra cosa. Quizá esto es tan cultural, tan global y tan fuerte que no veo cómo el Estado, por ejemplo, se vuelve seductor para generar otro incentivo. Es como que son procesos, quizá como lo hablábamos la otra vez, en la etapa anterior a la Revolución Industrial, también hubo un momento de mucho aceleramiento de procesos y de imposibilidad de regulación. Había gente que trabajaba 12 horas por día, no veía a su familia, terminaban con alguna discapacidad y fallecían. La regulación vino mucho después lamentablemente.
-Está claro, ya sabemos que en ese proceso pasó eso, o sea, que se demoró X cantidad de años la regulación. Qué no nos pase lo mismo.
-Sí, sería inteligente, pero bueno, quizás somos menos inteligentes de lo que pensamos. Es que es muy difícil a veces pensar qué vamos a aprender de ese proceso. Vamos a una velocidad a la que no estamos preparados como seres humanos para procesar estos cambios, son muy dinámicos. Hace dos años y medio charlábamos de algunas cosas que ya están pasando y hay otras que suceden que ni siquiera las podíamos ver y vamos en ese sentido.
-Bueno, y entonces, en 2 años y medio más que pasará, sos optimista o ves algo distópico.
-Yo siempre soy optimista, pero no basta con que yo sea optimista, o sea, hay indicadores. Me parece que está bueno el trabajo de Gustavo Beliz. Ha sacado un atlas con un grupo de gente que intervienen en todas estas problemáticas, y entonces se dividen en rangos.
-Aclaremos que Beliz es parte del Comité académico del Vaticano.
-Claro, y tiene varios equipos de investigación. Yo no he leído el trabajo porque es bastante reciente, pero hay líneas verdes y rojas. Las verdes son lo positivo y hay que ver cómo fortalecerlo. Las rojas indican aquello en lo que hay que prestar la atención o lo que no debería suceder. Quizá lo primero es ponerse a pensar en eso. Me pareció interesante lo que dijo, que no hay que pensar solamente en lo que puede hacer la IA, sino que tenemos que ver lo que debe hacer, saber qué es lo que debemos hacer con eso, porque en definitiva no deja de ser una creación humana.
Entonces, una de las cuestiones que tenemos que mirar, por ejemplo, es que los mismos sistemas, ya de alto nivel y complejidad, solos empiezan a generar desarrollos y aparecen con alguna cuestión maligna o alguna cuestión de error o sesgo que hay que corregir. Empiezan a ocultar el error cuando uno va a hacer el control de seguridad y funcionan bien para que no se detecte cuál es el problema. Y después vuelve a funcionar de la manera que no es la indicada. Tenemos un problema muy grande porque lo ético se diluye si no tenemos posibilidad de que el ser humano tome algún control, y más cuando el control es de pocas empresas privadas.
-Para cerrar y para dejar más preocupados a todos, cuando dije que según Musk en 5 años habrá problemas con el empleo, vos dijiste que hay otros que dicen que eso va a suceder antes. ¿Cuándo?
-Sí, hay algunos que están planteando eso, que en 2 años habrá un salto donde ya no habrá vuelta atrás de un montón de cuestiones y, por ejemplo, entraría en crisis el empleo de manera ostensible, y no hace falta mucho. ¿Qué va a pasar? ¿Qué capacidades tenemos para darle respuesta a la gente ante este desafío? Es delicado saberlo porque además la dirigencia en general, empresarial y política, no está a la altura. Hace dos años hablábamos de los aceleracionistas, que eran como los grupos que justamente plantean que debe pasar todo lo que tenga que pasar y si nos tienen que dominar los robots que nos dominen, ahora creo que todos somos un poco aceleracionistas. Pero sin dudas hay que incorporar el factor humano, darle una visión ética, discutir temas, y estar preparados para saber dónde está el límite y ponerlo, tener la capacidad de construir el límite.
