Caso de Estudio

Prompt Engineering Multicanal en Producción

Optimización del Ecosistema de Generación de Contenido con IA para una Empresa de Telecomunicaciones Europea

Introducción

En un contexto donde los equipos de marketing trabajan con múltiples agencias, lenguas y canales, mantener la coherencia del mensaje se vuelve un reto.

Ante la necesidad de escalar la generación de contenido de forma automatizada y coherente, LambdaLoopers se está posicionando como socio estratégico en proyectos de inteligencia artificial en producción aplicada a entornos corporativos. Este es el caso de éxito realizado para una de las empresas de telecomunicaciones más relevantes de Europa, donde impulsamos una solución de IA generativa adaptada a múltiples equipos, idiomas y canales.

Nuestro cliente, que cuenta con más de 18.000 empleados en plantilla, necesitaba una solución que permitiera a sus equipos generar contenido relevante, multilingüe y alineado con la voz de la marca sin depender de herramientas externas de IA.

Si bien la compañía ya contaba con una solución interna que permitía generar mensajes para emails, SMS o redes sociales, requería evolucionar hacia un sistema más robusto, colaborativo y adaptado a distintos públicos.

El desafío era consolidar una biblioteca de conocimiento compartido, escalar la generación multicanal y mantener la calidad y el tono de marca en todos los outputs, teniendo en cuenta los siguientes objetivos:

Objetivos

1

Librería compartida

Incorporar una librería de prompts curada y colaborativa, accesible desde la misma interfaz de generación de contenido.
2

Conversaciones con contexto

Permitir a los usuarios mantener conversaciones con los modelos de lenguaje, con historial y persistencia de datos
3

Funcionalidades en producción

Integrar funcionalidades que respondieran a las necesidades de campañas reales: selección de CTA, tipo de interacción, número de variantes, idioma, etc.
4

Escalabilidad sobre base existente

Establecer una arquitectura técnica escalable, sin romper la solución existente en PHP
5

Compliance

Asegurar la localización de todos los modelos en servidores donde se encuentran los HQ, cumpliendo con los estándares de privacidad y regulación

Qué Hicimos

1

Ingeniería de prompts a escala

El corazón del proyecto fue convertir una colección dispersa de inputs en una biblioteca inteligente de prompts, curada colaborativamente. Esta librería no solo conserva los mejores prompts según evaluación de resultados, sino que los estructura según casos de uso, idioma, audiencia y canal de distribución. Para ello, incorporamos aspectos como variantes de tono y nivel de formalidad, categorías temáticas y objetivos comunicacionales y CTAs predefinidos y personalizables, ofreciendo a cada usuario una base de conocimiento compartido para comunicarse de forma más efectiva con los modelos de IA
2

Desarrollo de una interfaz de mensajería estructurada (Structured Output)

Mediante la combinación de código y modelos de lenguaje (LLMs), logramos definir con precisión cómo queremos estructurar la información. Esto nos permitió obtener outputs más coherentes y controlados, asegurándonos de mantener el control sobre cada elemento de la estructura.
3

Chat interactivo con historial y persistencia

Se reemplazó el sistema de inputs por un chat conversacional con estado, que guarda tanto prompts como respuestas, y permite a los usuarios navegar por su historial o guardar outputs directamente en su sistema de gestión de activos digitales (DAM). Además, se integraron herramientas de traducción para facilitar el trabajo en distintos idiomas, y se habilitó la generación de variantes tanto de texto como de imagen, adaptadas a los formatos requeridos para redes sociales o campañas específicas.
4

Integraciones modulares y diseño escalable

A nivel técnico, migramos la aplicación a Laravel, dejando atrás la base en PHP plano tras analizar la viabilidad de ambas opciones. Esto nos permitió desarrollar de forma más ágil y obtener una aplicación mucho más robusta. Además, integramos una base de datos MariaDB y exploramos ORMs como Eloquent y Doctrine para optimizar la persistencia sin romper la arquitectura del sistema. Por otro lado, se diseñó una abstracción que permite la integración de múltiples proveedores de IA, incluyendo tanto modelos de lenguaje (LLMs) como generadores de imágenes. Esta arquitectura multimodelo se basa en un contrato común, lo que no solo simplifica la incorporación de nuevas tecnologías, sino que también abre la puerta a una evolución más flexible y escalable del sistema.
1

Resultados

El nuevo sistema permite a los equipos generar contenido de forma más rápida, efectiva y alineada con los lineamientos corporativos. La biblioteca de prompts se convirtió en un eje central del conocimiento compartido, ayudando a escalar la producción con consistencia. Además, se sentaron las bases técnicas para continuar evolucionando la solución: nuevas funcionalidades, integración de feedback loops, autenticación avanzada y migración progresiva a un framework si el producto lo requiere.
2

Conclusiones

La visión estratégica y capacidad técnica del equipo de LambdaLoopers le ha permitido a nuestro cliente contar con una plataforma más poderosa, flexible y preparada para crecer junto con su estrategia de IA corporativa.
¡Colaboremos!

¿Quieres trabajar con nosotros?

¿Quieres que colaboremos?

¿Quieres subirte a bordo?