ENTREVISTA A CAROLINA MARTÍNEZ ELEBI: “UNO DE LOS MAYORES PROBLEMAS QUE HAY CON ESTAS TECNOLOGÍAS ES QUE PARECE NO HABER AFUERA.”

INTERVIEW WITH CAROLINA MARTÍNEZ ELEBI: "ONE OF THE BIGGEST PROBLEMS WITH THESE TECHNOLOGIES IS THAT THERE SEEMS TO BE NO OUTSIDE."

Santiago Marino

Cómo citar: Marino, S. (2024). Entrevista a Carolina Martínez Elebi: “uno de los mayores problemas que hay con estas tecnologías es que parece no haber afuera.”. Revista Argentina de Comunicación, 12(15), 83-91.

La inteligencia artificial (IA) es una disciplina cuyos rápidos avances han abierto el debate sobre el impacto de estas tecnologías en la vida de las personas. Este desarrollo se ha masificado en términos de usos sociales desde 2023, cuando una de sus materializaciones más eficaces, la Inteligencia Artificial Generativa, particularmente de ChatGPT, se convirtió en protagonista por su uso social expandido, junto con las herramientas diseñadas para generar imágenes, fotografías e ilustraciones, con ejemplos muy concretos en la reciente campaña electoral argentina y en la cotidianeidad del reciente gobierno, cuyos integrantes utilizan de modo irreflexivo. En esta entrevista pensamos junto a Carolina Martinez Elevi (CME), especialista en la temática.  

CME es licenciada en Ciencias de la Comunicación y docente en la Universidad de Buenos Aires (UBA). Investiga y escribe sobre el impacto de las tecnologías info-comunicacionales en la sociedad y en los derechos humanos. Es directora de DDHH y Tecno.

Cómo pensar la inteligencia artificial desde la comunicación y sus procesos en desarrollo son temas que aparecen como preguntas. Y guían la conversación entre Santiago Marino y Carolina Martínez Elevi.

SM ¿Qué hay de Inteligencia y qué hay de Artificial en lo que se conoce como IA?

CME La pregunta por la “inteligencia” invita a pensarlo desde los filosófico. Y en esa línea, en primer lugar, cuando se piensa en IA por un lado se enfocó en la capacidad de procesamiento de datos, de informaciones, en términos racionales. Y si se hace una comparación de un sistema tecnológico con una persona, con un ser humano, venimos de un proceso muy largo en el que la noción de “inteligencia” estaba asociada a una forma de razonar, al cálculo matemático. Eso habilitó a pensar que si algo “hacía cálculos” era igual a “ser inteligente”, porque tenía el poder de procesar datos, de computar. Que se intensificó por la aceleración de la tecnología. Y eso puede ponerse hoy en cuestionamiento porque no se habla de “una” inteligencia humana sino de muchas: deportiva, emotiva, creativa, entre otras. El abanico de lo que se dice “inteligencia” para la humanidad creció también. Y si nos apoyamos en esto podemos pensar que eso a lo que se le llama IA tan inteligente no es, porque se reduce a la capacidad de procesar mucha información.  Es cierto que ahora con el desarrollo puede, por ejemplo, ordenar palabras como si fuera un lenguaje. Pero las máquinas no entienden el lenguaje, no se comunican realmente en la complejidad que tienen nuestros distintos sistemas. Lo único que hacen es ordenar palabras de una forma que habilita que nosotros, las personas, interpretamos como que estamos en diálogo, o que nos comprende. Por eso podemos decir que no son inteligentes en el sentido en que lo somos las personas.

Por el lado de lo “artificial” citaría a Kate Crawford por la perspectiva desde la que lo aborda. Ella destaca que todos los recursos que se usan para mantener funcionando las máquinas viene de lo natural (incluso hasta el agua) muestra que no son puro “artefacto”. Y permite agregar la carga de mano de personas que se incorpora para la carga de datos, la corrección, el control, la revisión de los errores y todas las personas que se dedicaron a crear esto. Es decir que lo de “artificial” se queda solo en la vidriera.

SM ¿Qué preocupaciones te genera el uso social expandido de artefactos de la IA como ChatGPT?

CME- Me preocupa un poco la delegación de la capacidad de investigación y razonamiento que hay hoy a partir de la existencia y el uso extendido de estos instrumentos. Como en su momento “googleado” ahora se dice “pregúntale al chat”. Y esto se aplica a cualquier cosa. Y se elimina cualquier otro tipo de tecnología para buscar información, por supuesto que quedan de lado las más analógicas. Pero se abandona la práctica de preguntarle a otra persona. Se pierde un montón de otros espacios, hasta para la vida cotidiana y lo más básico, como una receta de cocina. De pronto alguien le pregunta “tengo estos tres ingredientes ¿qué puedo hacer con esto?” Pienso que en esa delegación muy grande se le cede mucho poder inclusive para la toma de decisiones de cosas muy cotidianas.

Uno de los problemas que me preocupan de esto es la estandarización de las respuestas que trae esta práctica. Es algo que se extiende a múltiples plataformas, más allá del chat GTP, todas las plataformas que usan algoritmos para la interacción traen consigo esa estandarización que deriva en pérdida de riqueza en formas de expresarse, por ejemplo, las diversidades personales, la riqueza del ser humano construida tras años y años de distinguirnos queda reducido a lo estándar. Eso en relación al uso masivo.

Otra cosa que se podría pensar es que si se incrementa el uso de este tipo de tecnologías sin una mirada crítica puede haber una serie de desplazamientos de personas que desarrollan determinadas tareas o cumplen determinados roles, y que se cree que la máquina puede cubrirlo, puede reemplazarlo en forma más óptima, más eficiente. Veo un peligro en que se mida el rol de una persona por los criterios de eficiencia y eficacia a la hora de desarrollar una tarea. Las performances medidas con métricas de rendimiento hacen que se pierda lo que una persona que quizá no ejecuta la tarea tan rápido, pero se distingue por otras cosas. Esto lo pienso hasta en el ámbito de la medicina, por ejemplo, personas que prefieren consultar una mancha en la piel con un sistema de reconocimiento de imágenes en vez de con un dermatólogo o dermatóloga.

Desde mi perspectiva estas preocupaciones socioculturales son las más relevantes para la vida cotidiana de las personas. Después está toda la cuestión regulatoria, que es otro problema y se viene pensando desde antes con la expansión de Internet. Lo que sucede es que el uso masivo de IA no está solamente en Internet, sino que operan en áreas cerradas como la educación, la agroindustria u otro sector, en cuyo desarrollo puede tener efectos muy positivos a partir de la sistematización de datos y el análisis de patrones. Allí la IA es un gran aliado. Pero incluso ahí es más sencillo buscar formas de regulación, es más concreto el camino.

Pero en las de uso masivo los problemas son otros. Los actores preocupados por su regulación también son otros y los temas son otros. Las empresas tienen algunas preocupaciones, están los que se enfocan en la cuestión de la propiedad intelectual, de cómo se entrenó todo esto; están los aspectos de la privacidad, de qué pasa con esos datos que se van acumulando por cada uso de cada persona. Allí, en el uso individual, las personas hacen preguntas que involucran datos sensibles, por ejemplo, porque hay quiénes los usan como lógica “terapéutica”. Y entonces es necesario identificar qué pasa con toda esa información. Es clave que los Estados nacionales y las organizaciones intergubernamentales lo trabajen, porque la regulación no se puede pensar solamente desde lo local. Sería mucho más eficiente si se pudiera pensar en términos regionales. Por ejemplo, sería muy bueno identificar un frente latinoamericano de regulación, pero es algo que hoy resulta improbable.

No obstante, en materia de regulación es relevante decir que hay regulaciones que están vigentes y que, a pesar de estar ahí, no se recurre a ellas para ordenar el funcionamiento de estos sistemas. Pueden ser las de regulaciones de datos, por ejemplo. No es necesario pensar una norma nueva para cada tecnología, porque en general lo que hay que proteger son las problemáticas que ya estaban reguladas. Esa línea que podría sostenerse como “regular por servicios y derechos, no por tecnologías”. De otro modo se cae en la falacia de que la ley siempre va detrás de la tecnología.

Es que algunos efectos son distintos por las escalas de uso, y eso acelera la ansiedad de pensar regulaciones que no existen cuando en realidad si se aplicarán normativas vigentes, en Argentina, por ejemplo, no debería ser tan fácil que llegara cualquier plataforma a recopilar información de toda la ciudadanía, y que estemos celebrando que nos dé algunos tips para terminar un paper. En esos casos lo que falla es la aplicación de alguna normativa preexistente.

SM ¿Qué sectores sociales son los más vulnerables antes estos desarrollos? ¿Los etarios como niños, niñas y adolescentes? ¿O los socioeconómicos, como los sectores populares?

CME- Es difícil identificarlo. Suele aplicarse a ambos. En el caso de lo socioeconómico suele plantearse cómo estos sistemas (aunque es complejo generalizar, porque depende de cada tipo de tecnología, dado que IA se aplica a múltiples aspectos) afectan el desarrollo de lenguajes, por ejemplo, puede pasar que haya sectores que vayan quedando fuera. Y eso no tiene que ver tanto con cuestiones etarias o socioeconómicas, por ejemplo.

Los menores de edad también están siendo vulnerables en los usos que se les dan a las tecnologías en general, ya porque sus propios datos están entregados por sus adultos responsables y no tuvieron siquiera la opción de pensar si querían o no integrase a estos usos. De todos modos es un tema ríspido y lo digo con muchas pinzas porque uno de los mayores problemas que hay con estas tecnologías es que no existe la posibilidad de decir que querés estar afuera. 

SM-Parece no haber afuera

CME- Exacto. Porque ese es un aspecto central de estos sistemas. La idea del “afuera” y el “adentro” parece dejar de existir. Y ahí es dónde se mete otra vez el tema del “uso de ciertos datos”. Asoma el dilema de la inclusión y la no discriminación, porque cuando estos sistemas funcionan y tienen que dar un diagnóstico, una respuesta, una interacción, asoma el dilema entre privacidad e inclusión. Porque si se busca proteger a los distintos grupos, y no se incluyen sus datos a la hora de ser sistematizados, analizados y entrenados, este sistema va a seguir funcionando sin contemplar esas diversidades. Si los sistemas no cambian sus lógicas de funcionamiento es esperable que emerjan ese tipo de fallas en sus respuestas, que es lo que se dice hoy cuando aparece algún “error”. Estos pueden devenir de la falta de datos a la hora de sistematizar. Ese es el dilema: no sabría decirte si esos grupos son vulnerables por estar “adentro” o por estar “afuera”.  

Pero sin dudas mi mayor preocupación radica con las generaciones menores, porque se están criando en un entorno en el cual, si se naturaliza todo esto sin una mirada crítica, me preocuparía que domine la idea de que lo que dice la IA sobre cualquier cosa es La verdad y no permite ver matices.

Un poco como esas discusiones que se daban años atrás sobre “el rol de los medios”. Con la complicación de que estos sistemas pueden dar respuestas personalizadas, con lo que resulte complejo saber qué le dijo a cada quien. La atomización en la percepción de cómo entendemos el mundo, de lo que nos acontece como humanidad me preocupa mucho. Si las nuevas generaciones se informan con herramientas como TIK TOK, que te “lee” tu algoritmo y te ofrece una perspectiva similar a lo que te interesa, me parece un problema. Eso opera en el ámbito de la información. Pero es uno clave. Y seguro se me escapen un montón de otros aspectos por los que deberíamos estar preocupados por el modo en las generaciones jóvenes se vinculan con la información. Es un problema saber qué les pasa a los que no saben cómo es el mundo sin Internet.

SM ¿En qué medida crees que el trabajo creativo que hacen las personas podrá ser reemplazado por la IA? Intuyo una parte de tu respuesta al repensar la primera que me diste: “si no piensan, tampoco pueden crear” sería la traducción. ¿Cómo lo ves?

CME -El trabajo intelectual y el creativo, integrados, fueron los que asomaron en el último tiempo como las mayores preocupaciones, manifestadas en la idea que sería: “también esto van a hacer”. Y la respuesta es no. Crear, no crean. No crean nada. Partiendo de la base de que incluso el ser humano, que puede hacer un aporte al acervo cultural, tampoco “crea” algo de la “nada”. Nos basamos siempre en aquellos antecedentes que tenemos. Con un agregado fundamental, y es que también tenemos vivencias y creencias propias. Y eso la máquina no lo tiene. Carece de “experiencia de vida”, de aspectos que lo conmuevan, que lo afecten de alguna manera. Entonces, desde ahí, creación no hay. Pero, sin embargo, hay una sensación de que lo que está “creando” ese “output” es “algo creativo”. Una ilustración, un texto “inspirado en el estilo de” algún escritor, o un poeta. Inclusive en materia de medios de comunicación. Y viniendo más acá en el tiempo, a la copia del propio estilo de un usuario. Alguien podría pedirle que cree un relato de un gol “al estilo de Víctor Hugo”. Y eso que se obtenga aparecerá como una creación porque eso mismo antes no existía. Entonces empieza a pasar un problema muy concreto, muy real, en el que muchos artistas, creadores de obras artísticas y culturales están preocupados. Porque, en algunos ámbitos, esa capacidad es suficiente. En una revista cultural posiblemente no, porque quieren tener las firmas, por ejemplo. Pero en medios digitales, de contenidos generales, donde apenas necesiten ilustrar artículos por la necesidad de posicionar esos textos mejor en un algoritmo de resultados de búsqueda, ahí si va a pasar. Se pone cualquier cosa que de herramientas de creación de imágenes y rinde. Se dio muy claramente en Argentina en la campaña electoral de 2023 con la memética. No contrataron diseñadores ni ilustradores a hacer el leoncito y el pato. No. ¡Tiraron un promt y listo! ¡Ya está!. Funciona. Sirve.

Creo que es en esos aspectos la preocupación que genera es válida. Pero también que quienes valoren el arte valorarán las creaciones en las que se destaque lo humano. Si hoy vemos en un museo las tendencias del arte contemporáneo se identifica que tiene mucho de lo vanguardista, de la puesta en escena, de lo experiencial. Y eso no puede reproducirse con un mecanismo digital. Tenés que estar ahí, con el cuerpo y en el espacio. Ahí me parece que hay algo en que las manifestaciones artístico-culturales pueden encontrar esa veta para salir de esa cosa automatizada. Y pelearse con la máquina. Salir de esa trampa. Tal vez la salida del arte esté por ahí, por ese otro lado. Tratar de generar algo que la máquina no pueda hacer. Después está esto de no caer en la tentación de lo que hace la máquina: no nos podemos caer en la trampa de pelear con la máquina porque sino se muere el arte.

Pero sí es necesario reconocer que se van a usar estas herramientas en algunos ámbitos. Y van a reemplazar al trabajo humano. Pero eso no implica reconocerlas como creativas. No.

SM: Es muy complejo vincularse con el tema desde otra perspectiva que no sea la de la filosofía. En términos de estudiantes de carreras de Comunicación, las claves para entenderlo parecen estar más en las teorías de la técnica de Ferrer y en la Teoría de los Discursos Sociales de Verón (por esta idea de que nadie crea nada desde cero) que en la tecnología de cero, unos y algoritmos matemáticos

CME -Pienso eso, sin temor de caer en la idea de “hacer filosofía”. Y lo compartía desde la primera respuesta cuando me preguntaste ¿qué es tecnología? Porque ahí se juega luego lo que se trabaja en términos de desafíos regulatorios, entre otros temas. Pero eso que pensamos desde la filosofía luego tienen efectos muy concretos, porque es posible que en el futuro la IA ponga a circular productos de cualquier de las Industrias Culturales elaboradas mediante este tipo de herramientas que se usen para definir qué pensar sobre determinadas cuestiones. Se va desde la idea filosófica de que esto “es o no creativo” a la generación de productos de las Industrias Culturales que operan en el mercado que se comprarán como obras creativas. Después uno puede correrse y separar a la industria cultural, que siempre hizo producción en serie de lo que sea y de la forma que fuere, de las generaciones culturales que salen desde otros lugares, usinas más creativas, no automatizadas, artesanales. Salirse es un buen modo de pensarlo. A veces me toca dar charlas por fuera del ámbito de la Ciudad Autónoma de Buenos Aires y ahí uno puede ver que es posible salirse de algunos de estos debates y pensar desde otra perspectiva estas cuestiones. Quizá soy muy optimista pero tampoco creo que sea todo tan apocalíptico. Me parece que todavía se puede destacar el valor de lo humano, de lo creativo, en donde nos desenvolvemos.

SM: Para cerrar con una mirada optimista ¿qué aspectos positivos ves en estos desarrollos en el plano sociocultural?

CME -Si quito toda la perspectiva crítica, tiene algo muy divertido, de posibilidad de jugar. Es una herramienta más para general distintas cosas. Y que en una forma de uso posible puede ser un gran disparador de ideas, de obras, de adaptaciones. Una persona como Hernán Casciari podría publicar un libro basándose en conversaciones que tuvo con chatgtp, por ejemplo. También puede haber formas de crear, de generar.

A mi me paso algo particular. Publiqué este año un libro de cuentos (N del E: Nadie se prepara para lo no pasó, Buenos Aires, editorial Autores de Argentina) y antes de llevarlo a la editorial y a publicarlo, empecé a indagar con ChatGPT a ver qué pasaba. Le compartía mis textos para ver qué respondía. Le escribía “te comparto este texto qué escribí ¿qué te parece? Y me causaba mucha gracia que me respondía todas cosas muy positivas. Destacaba distintas cosas. Pero en uno en particular, donde hay un personaje distinto (Se llama “Resurrectio”, un personaje que dice que se muere y vuelve vivir, es un renacer metafórico) me respondió que no podía darme una opinión. Y que ese texto no cumplía con las normas de términos y condiciones porque había una apología al suicidio. Que era obvio que no había, pero no podía entenderlo. Lo particular es que ese texto, que yo escribí, si ChatGPT fuera el editor no pasaría el filtro, no me lo publicaría. Y ahí hay algo que se destaca que lo humano es más que la máquina. Y que las tecnologías están impregnadas de valores que les dieron, tienen que cumplir con un montón de normas. Y esta sutileza no podía identificarla. Incluso si el suicidio fuera parte de la historia, se perdería. Por ejemplo, el libro de (Martín) Sivak (El Salto de papá) no estaría publicado. Sin embargo, más allá de esos errores, me parece una experiencia divertida y que puede generar algo creativo desde el juego. Y demanda tratar de posicionarse desde un lugar muy activo.  

Referencias

Crawford, K. (2023). Atlas de inteligencia artificial: Poder, política y costos planetarios. Fondo de Cultura Económica Argentina.

Martínez Elebi, C. (2024) Nadie se prepara para lo que no pasó. Autores de Argentina. Buenos Aires.