¿Se puede convivir con la IA sin que ella nos gobierne? ¿La IA puede suplantar a la inteligencia humana? ¿Se debe regular la generación y el uso de la IA? ¿Quién debe cumplir esa función? ¿Podemos convivir con la IA?
La Real Academia Española la define como una “disciplina que se encarga de crear programas informáticos que ejecutan ordenes similares a las del cerebro humano”.
Héctor Feruglio, doctor en Ciencias Humanas de la Universidad Nacional de Catamarca (UNCA), explicó que la idea de que la IA pueda suplantar a la inteligencia humana “es una discusión que no tiene mucho sentido, porque la IA hace cosas mejores que el hombre. Como dijo Edsger Wybe Dijkstra, programador informático y físico teórico, ‘preguntar si una computadora puede pensar es como preguntar si un submarino puede nadar’. Es absurdo”.
Consideró que así como la IA “hace cosas mejores que nosotros, nosotros hacemos cosas que ella no puede hacer, y el debate está en cómo nos vinculamos con los dispositivos tecnológicos que portan realidad humana porque la IA es un sistema que se entrena con datos que nosotros mismos producimos”.
Indicó que su tesis de doctorado estuvo relacionada con el ciberespacio y la subjetividad, y que en los últimos años profundizó sus estudios en los temas relacionados con las redes sociales, el streaming, el ChatGPT (prototipo de chatbot de IA desarrollado en 2022 por Open AI, que se especializa en el diálogo), “que son las que actualmente están en el foco de la discusión, en torno a las cuestiones del aprendizaje”.
“Mi posición es que hay que pensar en algún tipo de acoplamiento y de relación con la tecnología que sea virtuoso, y que implique procesos de reflexión. Es necesario que la sociedad empiece a comprender esto porque si no, se termina cayendo en una mirada apocalíptica al afirmar que ‘no hay que usar más la tecnología’”.
Sostuvo que las opciones que se plantean a esta negativa, está la de “intentar escapar a esa suerte de vigilancia permanente, de big data, y de las imágenes potentes”, o la de “endiosar la posición y plantear que la tecnología vino a solucionar todos los problemas”.
“Yo trabajo específicamente al autor Gilbert Simondon, filósofo, cuya idea es bastante simple: históricamente los objetos técnicos han sido expulsados del ámbito de la cultura y por eso siempre hemos tenido un vínculo instrumental con la tecnología. Ese vínculo ha llevado a que la tecnología se use con muchos fines, por ejemplo, el de las grandes corporaciones que usan determinadas tecnologías con intereses económicos, políticos y sociales”, señaló.
Hizo hincapié en que en primer lugar “deberíamos reconocer que las producciones tecnológicas y las tecnologías en general portan realidad humana (creaciones humanas), más allá de que la IA haya comenzado a desafiar algunos de estos procesos porque tiene cierta capacidad de autonomía, y construcción de patrones. Lo interesante es que la tecnología es un gesto cristalizado de invención donde hay un componente humano y cultural, y a partir de eso debemos pensar que tipo de vínculo queremos tener con la tecnología”.
“En todo sistema hay sesgos que están completamente marcados por la conducta y el comportamiento humano. Entonces, el debate ético es si nos relacionamos y acoplamos de manera virtuosa, o si vamos por un acoplamiento vicioso donde se pierde la dimensión crítica. Es necesario pensar una dimensión más allá del carácter meramente instrumental, y en relacionarnos de una manera distinta con la tecnología”, agregó.
Precisó además que “si con la IA queremos un vínculo que tienda a la automatización, será problemático porque comenzaremos a delegar en la tecnología, capacidades y competencias humanas como ser, que me recuerde el día de cumpleaños de los seres queridos, o decisiones políticas y económicas”.
También consideró la posibilidad de un acoplamiento hombre-tecnología, “una forma de hibridación que sea más productiva a nivel local y cumpla una función como parte de la vida cotidiana de las personas. La IA ya está en todos lados”.
Para que sirve
“La gran discusión no es donde está el conocimiento, porque en realidad el conocimiento está distribuido. El gran problema tiene que ver con las preguntas que se efectúan. Es lo que demanda por ejemplo, el software de GPT: el problema es saber qué preguntar”, subrayó Feruglio.
En el campo de la educación, como exalumno y actual docente universitario, remarcó que si bien “antes íbamos a la biblioteca en busca de una respuesta, hoy la figura del docente está cambiando porque hace unos años, sobre un tema podía encontrar un poco de información tras varios días de búsqueda en una biblioteca. Actualmente a través de las redes y la IA, se puede hallar infinidad de datos específicos sobre ese mismo tema y hasta resultados de estudios sobre esos datos obtenidos”.
“Es una discusión, una encrucijada histórica en la humanidad, porque por ejemplo Platón niega la escritura asegurando que la escritura destruiría la memoria. Y es más o menos lo que sucede ahora. Es un momento bisagra. La discusión de IA,o no IA, es una discusión que no tiene sentido, al menos en esos términos”, ´manifestó.
Recordó que Borges en alguno de sus escritos dijo que “el libro a lo largo de la historia se diferenciaba de otras tecnologías porque era diferente, y era el lugar donde se capturaba la imaginación y la memoria. Pero en realidad cuando él escribía el libro eso era así. Las generaciones actuales tienen la memora extendida o distribuida, porque la vida de las personas se distribuye en dispositivos tecnológicos que juntan información de nuestras conductas, nuestra vida y la interacción entre nosotros”.
En este marco, explicó que “el concepto de memoria en el libro, que para nosotros fue constitutiva, para las nuevas generaciones ya no lo es. Muchas veces se piensa en la formación basada en la lectura cuando en realidad a muchos alumnos les cuesta leer porque estén acostumbrados a otro tipo de formato, de soporte”.
Vigilancia vs. privacidad
Día y noche producimos información que a través de los dispositivos tecnológicos es cuantificada y cualificada por empresas y los estados nacionales. Qué datos recopilan, a dónde van a parar y cuál es el destino que se les dará son preguntas que tienen incontables respuestas sobre todo, porque existen vacíos legales que se sustentan en los permanentemente adelantos tecnológicos relacionados con actividades vinculadas con la IA.
“Una de las cuestiones surge porque el uso del dispositivo genera información que las corporaciones usan para vender productos. Hay entonces un proceso de realimentación, de patronización y de perfilización de los sujetos. Es lo que hacen por ejemplo las redes sociales, que no nos vigilan como personas, pero si están atentas a lo que consumimos” indicó, poniendo en relieve la producción de patrones de consumo, de comportamientos y de diseños de perfil de cada usuario.
Haciendo foco en lo vinculado a la privacidad de las personas, insistió en que “la discusión va por ese lado porque el planteo de si se debe dejar de usar las redes sociales para que nadie capte nuestros datos, no es una alternativa plausible porque hoy, vivir sin un celular, es bastante complicado”.
Otra opción para preservar nuestra intimidad estaría basada en la” generación de anomalías dentro del sistema, que es lo que hacen los hackers, que tampoco es una solución. Por eso creo que hay que pensar en un camino formativo, el desarrollo de una mentalidad técnica que se haga cargo de la tecnología pero que esté dentro de un modo de relacionarse con la tecnología. Que no sea meramente instrumental, que sea una relación de cuidados, de ciertos límites de umbrales de funcionamiento, de cosas que tienen que ver con una cuestión colectiva y a nivel más local”, manifestó.
Entre otros puntos destacó la discusión sobre la democratización de la IA, si debe ser regulada, si la debe regular el estado o las empresas, o si debe haber un proceso de auto regulación.
“Hay grupos anónimos de hackers que intentan sabotear al sistema, una opción que no comparto. Otras líneas afirman que el estado debería tener una intervención más fuerte sobre todo con las corporaciones, por el hecho de que hay una avanzada de la IA que de alguna forma está logrando que los humanos deleguemos decisiones en las máquinas y así, las maquinas nos quitan capacidad de decisión. Hay otra postura que es la que comparto más, que apunta a una mirada regulacionista del estado en las escalas de funcionamiento”, resaltó.
A modo de ejemplo recordó que la aplicación ChatGPT, en varios países fue prohibida por una cuestión de regulacion es estatal, mientras que las corporaciones la siguen utilizando. “Hay tecnologías que no se democratizan. Por eso considero que el estado debería comenzar a producir su propia tecnología, y tener sus propias bases de datos que estén al servicio del público”.
También sostuvo que entre otros problemas a tener en cuenta son las derivaciones que tienen muchos usuarios respecto a las consecuencias o efectos del uso de tecnología como ser la tecno-adicción otras implicaciones éticas y sociales más profundas. “Poner esta discusión en la escena social es más que interesante porque en general, la inteligencia artificial está más pensada en la utilización técnica y son los ingenieros los que se apropian del discurso. Pero hay que ponerle una mirada más humanizante a la tecnología”.
“Pensar cómo se han modificado ciertos modelos disciplinares que funcionaban de una determinada manera a nivel político y social -sociedad disciplinaria dijera Foucault-, hacia a la sociedad de control que a partir del uso de la tecnología y de la información, se basan en la modulación de la conducta a través del uso de los procesamientos de los sistemas inteligentes.
No disciplinan los cuerpos para que los cuerpos reaccionen frente a una determinada reacción, sino que todo el tiempo obtienen información sobre nuestra vida, información que generamos nosotros con todo lo que subimos a las redes sociales, compartimos y escuchamos, vemos en la tele. Lo que se consume a ellos le sirve para modular nuestra conducta”, explicó.
Para finalizar recomendó tratar de “romper el vínculo utilitario de la tecnología”, pero siempre tener en cuenta que “se crea tecnología para solucionar problemas concretos. La tecnología evoluciona y esa evolución va de la mano de aplicaciones que tienen que ver con cómo la sociedad se apropia de esa tecnología, la resignifica y le da sentido. Y ahí está la clave para pensar, no en las soluciones que viene empaquetadas. La tecnología debe ser reapropiada y resignificada. Debemos tener un vínculo de cuidado con la tecnología. Tiene que ver con la forma en que nos relacionamos con el mundo”.
Datos
Héctor Ariel Feruglio Ortíz es doctor en Ciencias Humanas en la UNCA. Fue profesor visitante del grupo PASTIS, en la Universidad de Padova, Italia. Realizó estudios postdoctorales en el Departamento de Filosofía de la Universidad de Oviedo, España, y es profesor titular de la cátedra de Filosofía de Comunicación en el Departamento de Filosofía de la Facultad de Humanidades de la UNCA.