Ir al contenido

Cómo implementar inteligencia artificial en su empresa

11 de septiembre de 2025 por
Cómo implementar inteligencia artificial en su empresa
ACIS

Por: Gonzalo Garcia, vicepresidente de Ventas de Fortinet para América del Sur.

En el mundo corporativo, la inteligencia artificial dejó de ser un concepto aspiracional para transformarse

en una herramienta concreta de eficiencia y ventaja competitiva. A alto nivel gerencial hay un

convencimiento de que inteligencia artificial está transformando su negocio y deben subirse a esa ola.

Luego de visitar muchos clientes en distintos países de América Latina, puedo decir que el cuándo es

ahora las preguntas que quedan sin respuesta en estos ejecutivos son, ¿por dónde y cómo empezar?

Mi visión es que el punto de partida no debe ser un megaproyecto que abarque toda la organización,

sino un caso de uso específico, medible y con impacto tangible en un área de negocio.

El punto de partida

En el mundo de la tecnología, todo comienza con un caso de uso puntual. No se trata de transformar

toda la organización de la noche a la mañana, sino de identificar una situación concreta donde la

inteligencia artificial pueda generar una mejora significativa y medible.

Por ejemplo, en una empresa de servicios, implementar un modelo de AI que gestione automáticamente

las preguntas frecuentes puede reducir los tiempos de respuesta y liberar a los agentes humanos para

tareas de mayor valor. Este tipo de iniciativa es acotada, mensurable y con resultados visibles en

semanas, lo que la convierte en un excelente primer paso. A partir de allí, la organización gana

confianza, experiencia y métricas que permiten escalar hacia escenarios más sofisticados, como la

personalización de la experiencia del cliente, la predicción de la demanda o la optimización logística.

Lo esencial es comenzar con un caso de éxito, consolidar el aprendizaje y luego expandir

gradualmente a nuevos frentes. Para lograrlo, es clave conformar un equipo multidisciplinario,

considerando personas de tecnología, negocio y control de gestión, liderado por un Chief AI Officer

(CAIO), quien actúe como puente entre la estrategia de negocio y la implementación tecnológica.

En este recorrido, los datos son el insumo más valioso: sin calidad, consistencia y gobernanza, ningún

modelo de inteligencia artificial podrá producir resultados confiables. Por eso, antes de elegir un caso de

uso, la alta gerencia debe evaluar si cuenta con datos suficientes y de buena calidad, y si existe la

infraestructura y el talento para transformarlos en inteligencia accionable.

La decisión tecnológica: LLM vs. SLM

Una vez elegido el caso de uso, la discusión inevitable pasa por la arquitectura tecnológica. Aquí

aparecen dos enfoques: los Large Language Models (LLM), capaces de procesar información a gran

escala con resultados sofisticados, y los Small Language Models (SLM), más livianos, económicos y

fáciles de entrenar con datos específicos de la empresa.

Los LLM ofrecen potencia y versatilidad, pero traen consigo mayores costos de cómputo y

preocupaciones de confidencialidad cuando dependen de proveedores externos. Por el contrario, los

SLM pueden ejecutarse en entornos más controlados, incluso on-premises, con costos previsibles y

entrenados en contextos más reducidos, pero profundamente relevantes para la organización.

La decisión no debe ser binaria. Una estrategia híbrida puede aprovechar la escala de un LLM para

tareas generales (resúmenes, generación de contenido amplio) y un SLM especializado para funciones

críticas con datos sensibles (procesos financieros, información de clientes, operaciones internas).

El ángulo de la ciberseguridad

En ciberseguridad, la discusión LLM vs. SLM se vuelve crítica. Los SLM son manejables, pero al

ejecutarse on-prem o en nubes privadas implican una responsabilidad adicional: asegurar todo el

stack que los soporta. Esto incluye proteger el hardware, los pipelines de datos de entrenamiento e

inferencia, las APIs expuestas y los mecanismos de actualización. En la práctica, significa integrarlos con

soluciones de Zero Trust, EDR/NDR, IAM robusto, segmentación de red y cifrado end-to-end. Sin

este andamiaje, un SLM puede transformarse en un vector de ataque en lugar de una defensa.


Los LLM, en cambio, rara vez pueden desplegarse en una nube privada de la organización. Los grandes

proveedores (como OpenAI o Anthropic, Gemini, xAI) los ofrecen bajo un modelo “as a Service”, sin

acceso al modelo base. La alternativa es utilizar LLM open source (LLaMA 3, Falcon, Mistral) sobre

clusters propios de GPU en infraestructuras privadas o híbridas, con altos costos de hardware y

mantenimiento.

Cuando se consumen como servicio en la nube pública, los LLM introducen el problema de la fuga de

información: cada vez que se envían datos, existe riesgo de que información sensible quede retenida o

se utilice indirectamente en el entrenamiento futuro. Incluso si el proveedor afirma amonificación, no

siempre se garantiza cumplimiento de regulaciones estrictas (GDPR, HIPAA, PCI-DSS). De hecho, ya

hubo incidentes documentados donde empleados filtraron datos confidenciales de clientes al usarlos en

LLM públicos.

Estrategia práctica

1. SLM on-prem o cloud privada: entrenados con datos internos y protegidos con un stack

robusto de ciberseguridad.

2. LLM públicos como servicio: restringir su uso a casos no críticos, aplicando políticas de

sanitización de datos, antes de la consulta.

3. LLM open source en nubes privadas: camino intermedio para sectores regulados, aunque con

inversión significativa en infraestructura y talento.

Conclusión: pensar estratégico, ejecutar táctico

Implementar AI en un área de negocio no es un salto al vacío, sino una secuencia lógica: empezar con

un caso de uso puntual, elegir la tecnología adecuada considerando costos y seguridad, y finalmente

escalar a una estrategia que abarque la organización. El error más común es lanzarse a iniciativas

amplias sin un norte definido, lo que lleva a altos costos y frustraciones. La clave está en construir desde

lo pequeño, con impacto rápido, pero diseñando la arquitectura con visión de futuro.

La inteligencia artificial no es un fin en sí mismo. Es un medio para transformar procesos, mejorar la

eficiencia y abrir nuevas oportunidades de negocio. La pregunta no es si usar AI, sino cómo y dónde

comenzar hoy.

Sobre el autor: Gonzalo Garcia es vicepresidente de Ventas de Fortinet para América del Sur con más de

30 años de experiencia en tecnología y ciberseguridad. Su formación académica es de Ingeniero en

Sistemas de Información de la Universidad Tecnológica Nacional de Argentina, y ha actualizado sus

conocimientos en Inteligencia Artificial en el Massachusetts Institute of Technology y en la Universidad de

Miami.

Cómo implementar inteligencia artificial en su empresa
ACIS 11 de septiembre de 2025
Compartir esta publicación
Etiquetas
Archivar