Operator: el agente de OpenIA que quiere hacerlo todo (pero aún no lo logra)

Aunque la llegada de DeepSeek se adueñó de los titulares la semana pasada, OpenAI también logró hacerse un lugar con el lanzamiento de Operator, su nuevo agente de inteligencia artificial. La empresa tecnológica mostró su último producto, que puede realizar tareas con autonomía propia a partir de simples prompts, como reservar un hotel para tus vacaciones en Booking o hacer un pedido de compra en Amazon.

Aún en etapa de investigación y solo disponible para usuarios con la suscripción Pro ubicados en Estados Unidos, Operator está potenciado por un nuevo modelo llamado Computer-Using-Agent (CUA), que combina las capacidades de visión de GPT-4o con el razonamiento avanzado a través de aprendizaje por refuerzo. CUA está específicamente entrenado para interactuar con las interfaces gráficas —es decir, botones, menús, campos de texto— y así poder asistirnos en los pedidos.

“En lugar de simplemente codificar e instruir a las computadoras sobre qué hacer, ahora les estamos enseñando cómo pensar”, explica Lautaro Carmona, CEO de Unitech, empresa experta en transformación digital cognitiva, a LA NACION. “Estos agentes autónomos aprovechan los modelos de lenguaje grande y combinan la automatización con la cognición, creando herramientas que no solo siguen órdenes, sino que razonan, toman decisiones, ejecutan acciones e incluso aprenden con el tiempo”, continúa.

En detalle, Operator puede completar formularios, comprar pasajes de avión, pedir comida en una tienda en línea, crear memes, responder mensajes no leídos en redes sociales como LinkedIn, llenar encuestas, entre otras acciones de la misma índole. Sin embargo, Kevin Roose, un periodista de tecnología de The New York Times, hizo una prueba personal y reportó que Operator no pudo completar de manera exitosa ciertas actividades, como jugar al póker en línea o completar las pruebas CAPTCHA. Tampoco puede realizar transacciones bancarias o acciones como completar solicitudes de empleo.

Cuando la IA termina de realizar la tarea solicitada, siempre pide la confirmación del usuario para ejecutar una acción. Además, el usuario debe tomar el control de la inteligencia artificial al momento de insertar información personal sensible o datos de tarjetas de pago. En esas instancias, de acuerdo con lo que informa OpenAI, Operator no está recopilando ni guardando la información, dejando de lado una de las preocupaciones más en auge sobre la protección y privacidad.

Roose confesó que este agente hoy es más una demostración interesante y no tanto un producto que recomendaría utilizar. Augusto Alegre, especialista en inteligencia artificial, se adhirió a esta conclusión y afirmó para LA NACION que, a pesar de que Operator representa un claro avance, todavía está lejos de ser un asistente realmente autónomo. “Todavía tiene una precisión inconsistente y sigue dependiendo de instrucciones directas del usuario en lugar de anticipar necesidades y actuar por cuenta propia”, comenta. “Pero su principal problema es la velocidad de ejecución, que aún no se interpone ante la rapidez del clic manual”, insiste.

En definitiva, esta es la primera versión de un servicio que irá mejorando con las actualizaciones siguientes. Lo interesante, entonces, yace en analizar su potencial y entender los futuros desafíos a la hora de implementar agentes de inteligencia artificial a gran escala.

Carmona afirma que agentes como Operator permiten la automatización de procesos repetitivos, dejando tiempo para que los trabajadores se enfoquen en tareas más estratégicas y creativas. Además, comenta que, al incorporar la capacidad de analizar grandes volúmenes de datos en tiempo real, la IA facilita una toma de decisiones más informada y precisa. También, la disponibilidad de esta tecnología para operar a toda hora y sin límites ayuda a mejorar la atención al cliente o usuario.

Sin embargo, uno de los principales riesgos son las vulnerabilidades de seguridad, ya que estos sistemas pueden ser susceptibles a ciberataques o manipulaciones de datos si no se implementan de manera correcta y en infraestructuras seguras. “Esto podría poner en riesgo datos sensibles y operaciones críticas”, afirma Carmona. Tampoco hay que dejar de lado la perpetuación de sesgos cognitivos ya presentes en los modelos de lenguaje, que pueden ser amplificados por estos nuevos agentes, llevándolos a una posible toma de decisiones influenciada.

A su vez, enseñar a las personas a utilizar estas nuevas tecnologías, tanto en empresas como para uso personal, es uno de los desafíos más grandes. “El desafío no es solo adaptarse al cambio, sino asegurarnos que existan los incentivos correctos para que las personas estén motivadas a abrazar esta transición tecnológica”, explica Alegre. “En lugar de resistirse a la automatización, será clave fomentar una mentalidad de aprendizaje continuo y evolución profesional”, afirma.

Para ambos especialistas, Alegre y Carmona, las regulaciones juegan un papel importante a medida que esta tecnología avanza. Es fundamental que estas legislaciones se piensen de manera bilateral entre el sector público y el privado, así el debate se nutre de ambas perspectivas y se llega a un punto equilibrado que mitigue los potenciales riesgos. “Con una planificación responsable y colaboración continua, la inteligencia artificial tiene todo el potencial de volverse una herramienta para construir un futuro más justo, inclusivo y seguro para todos si se la implanta de manera correcta”, concluye Carmona.



Fuente: https://www.lanacion.com.ar/economia/IA/operator-el-agente-de-openia-que-quiere-hacerlo-todo-pero-aun-no-lo-logra-nid04022025/

Comentarios

Comentar artículo