Sanjna Parulekar, vicepresidenta de Salesforce, sobre la IA: “Teníamos más confianza en los modelos de lenguaje de gran tamaño”
La compañía admite problemas de fiabilidad con los LLM y vira hacia una automatización más controlada tras su despliegue masivo de agentes IA.

Salesforce, unas de las empresas más grandes de software empresarial a nivel mundial, ha reconocido un cambio de rumbo clave en su estrategia de inteligencia artificial. Sanjna Parulekar, vicepresidenta sénior de Product Marketing, admitió que la compañía ya no confía tanto en los grandes modelos de lenguaje. “Teníamos más confianza en los modelos de lenguaje de gran tamaño”, afirmó, evidenciando un paso hacia atrás con respecto al discurso optimista que imperaba en el sector tecnológico hace apenas un año.
Estas declaraciones llegan después de que Salesforce presumiera públicamente de haber reducido su plantilla de soporte de 9.000 a unos 5.000 empleados, lo que supuso un recorte de 4.000 puestos de trabajo, y todo gracias al uso de agentes de IA. El propio CEO de la entidad, Marc Benioff, explicó que la automatización le había permitido “necesitar menos personas”, asegurando que la IA les permitiría ser mucho más eficientes y ahorrar costes.
No obstante, Salesforce ha detectado que los modelos generativos presentan problemas de fiabilidad cuando se usan en tareas complejas. Varios responsables técnicos de Agentforce han explicado que los modelos empiezan a fallar cuando deben seguir múltiples instrucciones, llegando a omitir pasos importantes, lo cual es incompatible con procesos empresariales que requieren una ejecución exacta y repetible.
- Te puede interesar: EEUU dice adiós a cinco megaconstrucciones marinas sostenibles por posibles riesgos.

Salesforce da marcha atrás con Agentforce
Estos fallos también se han trasladado a clientes. La empresa de seguridad doméstica Vivint, que utiliza Agentforce para atender a millones de usuarios, comprobó que los agentes no siempre cumplían órdeenes básicas, como enviar encuestas de satisfacción tras una interacción. Para corregirlo, Salesforce tuvo que introducir “reglas automáticas”, reduciendo así la dependencia del comportamiento del modelo de lenguaje. Otro problema señalado por la compañía es la llamada deriva de la IA, que se produce cuando los agentes pierden el foco en su tarea principal al recibir preguntar irrelevantes. En la práctica, esto puede hacer que un asistente diseñado para guiar un proceso concreto se desvíe de su función, algo especialmente delicado en atención al cliente o automatización interna.
Noticias relacionadas
Ante esta situación, Salesforce está adoptando un enfoque más conservador, basado en datos estructurados, reglas claras y marcos de control. A pesar de que la compañía sigue apostando por Agentforce, el mensaje que trasladan sus directivos es claro: los grandes modelos de lenguaje siguen siendo útiles, pero no pueden operar solos sin límites, supervisión y mecanismos que garanticen resultados previsibles.
¡Tus opiniones importan! Comenta en los artículos y suscríbete gratis a nuestra newsletter y a las alertas informativas en la App o el canal de WhatsApp. ¿Buscas licenciar contenido? Haz clic aquí




Rellene su nombre y apellidos para comentar