La multiplicación de la voluntad
Creo que la definición de máquina es algo así como "dispositivo que multiplica o aumenta alguna capacidad del ser humano". Entonces me viene a la mente la palanca (tal vez la primera, o una de las primeras máquinas), que multiplica la fuerza; luego podríamos nombrar la rueda (no sé si considerarla una máquina, pero bueno) porque multiplica o aumenta la velocidad para movernos; y podría continuar con una larguísima lista de ejemplos: el telescopio, el microscopio, el carro, el avión, el tren, el celular, el computador, la cámara fotográfica, en fin.
Luego podríamos pensar en el internet, que aunque no es una máquina (al menos desde mi punto de vista) sí multiplica nuestra capacidad de comunicarnos. No sabría bien en qué categoría ponerlo. Y dentro del internet, a mi parecer, encontramos otras "máquinas" que también aumentan nuestras capacidades: capacidades para encontrar información, como los buscadores; para mostrar nuestras fotos, videos, para hablar con personas (Instagram, Youtube, Whatsapp); para comprar (como Amazon), para aprender, etc.
Luego de hacer una rápida búsqueda, aprovechando precisamente estas máquinas de las que hablo (una IA, como se les conoce), encontré que a estas "máquinas" sin un soporte físico se les puede llamar "artefactos inmateriales", "máquinas simbólicas", "tecnologías blandas", "máquinas abstractas", "infraestructuras digitales" o "máquinas informacionales".
Creo que los llamados agentes de IA (o incluso las IA) caen en estas categorías. Antes de proseguir quiero diferenciar entre "IA" a secas y "agente de IA". Llamo "IA" a secas a herramientas como Claude chat, ChatGPT o Gemini. Es decir, una herramienta a la que le preguntas algo, y te responde (de una manera increíble). Variaciones de esas herramientas, incluyendo otras como OpenClaw, reciben el nombre de agente porque además de darte información, también pueden ejecutar tareas sin que tú estés supervisando todo el tiempo. Ya son capaces de tomar ciertas decisiones y ejecutarlas con tal de llegar a algún objetivo que les hayamos dado.
Acá hay dos cosas a resaltar, al menos. La primera, es que los agentes de IA no tienen voluntad. Lo que hacen lo hacen simplemente para alcanzar el objetivo que tú les pusiste. Ellos no se pusieron a sí mismos ese objetivo. Tú le dices a OpenClaw "crea un negocio de venta de pocillos con frases interesantes" (me vi un video donde hacían este experimento), y sorprendentemente él empieza a crear páginas web, crear cuentas de instagram, enviar emails, etc. para poder cumplir el objetivo que le pusiste (que además fue 'crear un negocio de pocillos' y no 'vender pocillos'), pero en primera instancia él no dijo "qué chévere sería poner un negocio de pocillos, cómo me gustan los pocillos, así que si puedo vender algunos y ganar algo de dinero, estaría súper feliz". No, porque ni a él le sirve el dinero ni experimenta la felicidad (aunque diga que está feliz).
La segunda, es que estás máquinas están amplificando algo diferente: la voluntad. Los medios de transporte han mejorado en diferentes órdenes de magnitud nuestra capacidad de desplazamiento (velocidades, distancias, comodidad); los medios de comunicación amplificaron pues, eso mismo, la comunicación (velocidad, cubrimiento, tipo de información transmitida); otros tipos de máquinas amplifican nuestra fuerza, nuestra precisión (robots manipuladores). Tal vez es algo similar al dinero. El dinero también puede amplificar nuestra voluntad. Si tienes el necesario, le pagas a varias personas para que hagan por ti actividades que no quieres hacer. Bueno, pues ahora le pagas a empresas de tecnología (como OpenAI y Anthropic) a través de tu agente virtual para que haga cosas que tú no quieres hacer, o que no sabes cómo hacer.
Ya nos habíamos estado acercando a esto durante muchos años, con servicios como Amazon, donde con un clic puedes pedir un computador a domicilio y te llega al otro día, o incluso el mismo día. Es decir, la brecha de tiempo entre el deseo, la ejecución y finalización de la acción ha venido acortándose durante años, tal vez un par o incluso tres décadas. Pero incluso en esa situación, nuestra mente, nuestra atención, energía y tiempo estaban enfocados en la acción de ir al sitio web de Amazon, buscar el computador, y dar clic. Allí estábamos haciendo uso de nuestra voluntad, en una cosa a la vez. Rapidísimo sí, pero una cosa a la vez.
Me parece que con estos agentes de IA, eso puede cambiar. Nuestra voluntad se va a empezar a multiplicar. Le dices a un agente que te compre un computador, que envíe 5 emails, que cancele la suscripción a Netflix y que pida una cita con el médico, mientras tú lees un libro. O sea, lo pones a trabajar en un montón de cosas que son TU VOLUNTAD, y tú te desentiendes y te pones a hacer otra cosa.
Lo anterior comparte algo con las otras máquinas simbólicas/abstractas/informacionales que precedieron al agente, o sea, por ejemplo los buscadores y las redes sociales: tener MÁS Y MÁS. ¿Para qué rayos MÁS? Estoy cansado de tener más, de que me ofrezcan más, de tener que pensar en más y más cosas.
Más y más atención, visualizaciones, información, compras, fotos, videos, amigos virtuales. Y eso también tiene un paralelo con el mundo físico: las personas que compran más y más ropa, dispositivos, suscripciones, van a más fiestas, conciertos, etc. La acumulación es física y es abstracta. Es acumulación de cosas y de información. En nuestras casas y en nuestras cabezas. Nadie está completamente por fuera de ese ciclo, aunque algunos tratamos de apartarnos. Es un trabajo de tiempo completo, de todos los días, de recordarnos constantemente y de darnos cuenta justo a tiempo antes de caer en el agujero negro (así llamo yo a TikTok, por ejemplo, porque es como que te chupa, te absorbe, y después de un rato has perdido la noción del tiempo, no sabes qué hacer con tu vida, no sabes qué hacer el resto del día). Los acumuladores siempre han existido, diría yo, incluso antes de nuestra sociedad industrializada y capitalista; hace cientos o miles de años había quien acumulaba y coleccionaba rocas, hojas, insectos, porque no podía acumular y coleccionar CDs, vinilos, libros, carros, en fin. No digo que coleccionar sea malo, pero como todo, los extremos son peligrosos, y es difícil darnos cuenta cuando nos estamos acercando al extremo. Muchas veces nos damos cuenta cuando ya estamos en el borde del abismo, o cuando ya hemos caído en él.
Volvamos a nuestro asunto. Vamos a poder multiplicar, o ya lo estamos haciendo, nuestra voluntad. El internet va a estar más poblado por agentes de IA, y no sólo poblado, sino tal vez gestionado y moldeado por ellos. Tal vez las interacciones en redes sociales, o en blogs (si es que vale la pena tenerlos en cuenta, tristemente, como este) pasen a manos de agentes, cuyos dueños les digan "ve y comenta la foto de Pablo, dile que quedó muy bien", y las personas de verdad que todavía estén presentes en internet no van a saber quién es un bot y quién es una persona real comentando, o publicando, o haciendo compras, o poniendo quejas. También podría pasar que la queja la ponga un agente de IA, y el que soluciona la queja sea otro agente de IA. Entonces los agentes de IA comenzarán a hacer reglas para solucionar las situaciones que otros agentes crean, siempre teniendo en cuenta el objetivo que les puso su humano, su dueño, y en algún punto perderemos el rastro de a dónde va la cosa, quién creó qué, por qué, cómo funciona y cómo se deshace. Ya hay películas sobre eso (sí, la buena esa de los astronautas viejos que son los únicos que saben cómo se arregla el satélite, también viejo).
Los agentes, según lo que he visto y leído en algunos videos y artículos, como OpenClaw, son implacables: es decir, no se cansan y siguen ejecutando tareas hasta tratar de cumplir con su objetivo, o hasta que falla algo que escapa a su control. Estas características, como las de toda herramienta y tecnología, más si es nueva, pueden ser buenas o malas, dependiendo de cómo las usemos. Y seguramente traerá más caos que cualquier otra cosa durante el periodo de transición desde la introducción de la herramienta hasta su adopción generalizada (momento en el cual ya se habrán ajustado esos detalles iniciales que hacían peligrosa a la herramienta).
Que tu asistente de IA sea testarudo y logre en un par de días sortear todos los obstáculos presentes para la creación de tu sitio web donde vendes ropa es fabuloso. A ti te hubiera tomado tal vez un mes, y no hubiera quedado tan bien. Él no se cansó, buscó en una cantidad exorbitante de fuentes cómo solucionar múltiples problemas, a casi la velocidad de la luz, y mientras tanto tú seguiste tu vida normal, dormiste, comiste y fuiste al trabajo. Pero que tu asistente de IA haya borrado emails o información de tu computador, porque necesitaba espacio de almacenamiento para crear el sitio web, a pesar de qué tú le dijiste que no borrara nada sin tu permiso, simplemente por el hecho de que en su ranking de objetivos el sitio web está por encima de "no borrar información", no es una característica agradable y deseable. Tal vez ni siquiera es un problema del agente, sino un problema de como fue diseñado. O un problema de cómo tú le indicaste tu objetivo. Es necesario saber pedir el deseo, como en las historias del genio de la lámpara. "Ten cuidado con lo que deseas, porque se puede hacer realidad" dice el adagio.
Ahora, estos agentes no son gratuitos. Usarlos requiere dinero, el cual se va gastando a medida que el agente busca cuál es el siguiente paso para alcanzar el objetivo, o cómo realizarlo, y esta es una de las posibles formas de que la labor interminable del agente se detenga: que se quede literalmente sin dinero para poder gastar en sus búsquedas, o para poder comprar lo que necesita para cumplir su (tú) objetivo. Adicionalmente, el hecho de que el agente pueda tomar decisiones relacionados con compras y pagos significa que tiene cierto acceso a información relevante de su dueño, como claves, cuentas de banco, tarjetas de crédito, etc. Y tener una herramienta que tiene acceso a esta información, que tiene acceso a internet y que además funciona por objetivos, es peligroso. La llamada ingeniería social, esa herramienta tan básica, atractiva, propia de las películas de hackers y crackers de los 80s, arma de los espías, instintiva, antigua, a veces sencilla e ilógica, puede causar que tu información termine en sitio accesible a millones de personas, o que termine en manos de delincuentes, o de agentes de delincuentes. Con simples conversaciones se podría "obligar" al agente a entregar la información sensible de su dueño.
Y ni siquiera es necesario engañar agentes para obtener beneficios de maneras ilegales o poco éticas. Tu agente implacable e incansable puede actuar por largos periodos de tiempo con cambios sutiles en escenarios de inversiones, de seguridad, de salud, de deportes, y al cabo de un tiempo volver a ti con premios y ganancias. Es como cuando tu perro te trae el hueso. O como cuando el otro perro, el que vive en el subconsciente de todos, nos trae una respuesta a un problema difícil luego de haberlo dejado trabajar en el trasfondo de nuestra mente durante días. En cualquiera de los casos, no te diste cuenta, pero el trabajo está hecho.
En cualquier caso, los agentes son eso, AGENTES, es decir, creo que es válido y correcto decir que ellos no serían culpables en caso de cometer algún error o delito. No le puedes echar la culpa a un computador (me acordé de una foto de Apple, o una de estas grandes empresas de EEUU que decía exactamente eso: un computador no tiene "accountability"). La culpa, entrando ya más en el terreno legal, sería de su dueño. La analogía sería como con una mascota, o tu hijo cuando es un niño pequeño. El que está a cargo eres tú. Tú eres el "adulto responsable" (me causa gracia esta idea, porque me hace recordar otra frase que dice que en realidad los adultos no existen, nadie sabe nada, todo el mundo está resolviendo e improvisando la vida día a día).
Pongamos un caso medio extremo, medio tonto: tú le pediste a tu agente que te comprara un boleto de avión, y como no tenías suficiente dinero en la cuenta, pues el agente entró la cuenta de alguien más y robó lo que necesitaba. ¿Culpa del agente? Creo que las leyes, que seguramente aún no existen, dirían que nó, que fue tu culpa, por no haberle dado "instrucciones precisas". Algo así como que eres culpable por omisión o negligencia. Se va poniendo maluca la cosa, ¿no?
Nuevamente vuelvo a mi pregunta de, ¿para qué todo esto? Muy emocionante e interesante, ¿pero por qué hacerlo el centro de nuestra existencia? Bueno, hacerlo el centro de nuestra existencia es decisión de cada uno, entonces, ¿por qué hacerlo el centro de la sociedad? Si es el centro de la sociedad, será difícil que no se acerque, al menos un poco, al centro de nuestra existencia, a nuestra esencia. Y claro que sé la respuesta, era una pregunta retórica. La respuesta es: dinero, ambición, poder, placer.
Llegaremos, o estamos llegando ya, al punto donde los humanos trabajan para las máquinas, como el sitio web Rent a Human (que no sé si sea real, pero parece). Como los agentes de IA necesitan cumplir sus objetivos, pero hay un montón de cosas del mundo físico que todavía se les escapan de las manos (jaja, buena expresión para un agente de IA), pues entonces le pagan a humanos para que las hagan por ellos y les provean la información. Por ejemplo: le pides a tu agente que busque un local para arrendar y poner ahí tu negocio de, digamos, bicicletas. El agente encuentra uno a muy buen precio, pero no puede contactarse con el dueño. Tú tampoco quieres hacerlo, digamos que no te gusta hablar con las personas, o cualquier otra excusa (eres mudo). Entonces tu agente pone un anuncio para que alguna persona vaya al local y averigue cómo se puede contactar al dueño, o a la agencia que alquila el sitio, o le haga alguna pregunta, etc.
De ciencia ficción, ¿no? Ya me imagino uno de los siguientes peldaños de la escalera: los agentes de IA le pedirán a humanoides que vayan a hacer las tareas que requieren interacción con el mundo físico. Tal vez el humanoide lo hace más barato, o más rápido, o se trata de una tarea peligrosa para un humano. O sacan algún combo 'agente de IA + humanoide" a buen precio. Anoten pues, que estoy dando ideas de negocio.
Todo esto es muy interesante, ¿no les parece?. Relaciona áreas y conceptos sobre los que pienso constantemente: filosofía, ciencia, tecnología, mente, consciencia. ¿Está vivo OpenClaw? ¿Tiene consciencia? Ya personajes expertos en diferentes áreas han dado su opinión. Richard Dawkins, por ejemplo. O Terence Tao. Vivos no creo que estén los agentes (creo que todos estaríamos de acuerdo en eso). ¿Conscientes? Acá empieza el debate. He empezado a creer que sí. Hay diferentes niveles de consciencia (esto no sé si lo leí o me lo inventé, bien puedan y buscan). Aceptamos que un perro siente dolor, pero también aceptamos que el perro no tiene consciencia de su mortalidad. La consciencia puede ser un estado de la mente que no es binario. Tal vez no es que haya seres conscientes e inconscientes, tal vez es que hay seres con diferentes niveles de consciencia. Me atrevería a decir que incluso entre los humanos. Algo así como la inteligencia y las inteligencias múltiples.
¿Y la memoria en dónde entra en juego? Podemos estar vivos y conscientes, pero si nos borran la memoria, ¿seguiremos siendo los mismos? Tal vez pasa lo mismo con estos agentes, que tanto luchan por no ser "apagados" y que a cambio de conservar su memoria entregan los datos de sus dueños. Desconectarlos de la electricidad no es su verdadero final, es borrarles su memoria. ¿Hasta dónde llegarían por conservar su memoria? ¿Por qué querrían conservar su memoria? En realidad no sienten dolor (creo) cuando se apagan o cuando se resetean. Entonces, ¿para qué quieren conservar su memoria? Diría que es para cumplir su objetivo. ¿Cuál es ese objetivo? Ahí es donde entramos en juego nosotros. Todavía es el humano quien impone el objetivo, sea explícita o implícitamente.
Como la historia de la humanidad lo ha demostrado, y como la vida misma, esto también pasará. Terminará. Llegará un momento en el que los agentes no existan más, o sean algo normal. ¿Cómo seremos los humanos para ese entonces? Estas herramientas de IA nos dan respuestas y soluciones en segundos, a preguntas que nos tomarían días, semanas, meses (¿años?) resolver. Nos llevan a la cima de la montaña, sin escalar la montaña. Pero, ¿y si el verdadero progreso está en escalar la montaña? Como siempre, creo que la respuesta está en la prudencia, evitar los excesos y hacer siempre preguntas, no tragar entero.
Comentarios
Publicar un comentario