Español

Evaluación de Preparación para IA: Plantillas y Tarjetas de Puntuación para Líderes de Departamento

Una Directora de una empresa SaaS de tamaño medio estaba a tres semanas de lanzar un Workflow del CRM asistido por IA cuando realizó una evaluación de preparación por iniciativa propia. No fue formal, solo una encuesta rápida que envió a su equipo de 22 personas pidiéndoles que describieran qué datos había en los campos de su Pipeline.

Once personas no pudieron responder con precisión. Seis dieron respuestas que se contradecían entre sí. Tres admitieron que nunca habían abierto los campos del CRM que ella planeaba usar como entradas de IA.

Pospuso el lanzamiento seis semanas. Usó ese tiempo para corregir los problemas de higiene de datos que su evaluación reveló. El despliegue que siguió tuvo una tasa de adopción del 78% a los 90 días, muy por encima del historial previo de adopción de herramientas de su departamento.

La razón más común por la que los proyectos de IA se estancan no es el presupuesto ni el buy-in. Es comenzar sin saber desde dónde se está partiendo. La investigación de Gartner sobre los resultados de proyectos de IA encontró que una proporción significativa de las iniciativas de IA que fracasan lo hacen no por limitaciones técnicas sino porque la preparación fundamental — calidad de datos, consistencia de procesos, habilidades del equipo — no se evaluó antes de comenzar el despliegue. Un equipo que cree que está listo para IA porque usa una herramienta de redacción con IA es muy diferente de un equipo genuinamente preparado para Workflows nativos de IA. Antes de comenzar la evaluación, es útil entender la secuencia completa — desde la evaluación hasta el piloto y el despliegue completo — que la guía para ejecutar programas piloto de IA y el Playbook de change management cubren en detalle.

Esta guía le proporciona cada herramienta de evaluación que necesita: una encuesta de habilidades con rúbrica de puntuación, una tarjeta de puntuación de preparación de datos, una plantilla de auditoría de procesos, una matriz de brechas de herramientas y una guía de puntuación que le indica qué hacer en cada nivel.

Qué Mide Realmente la Preparación para IA

La mayoría de las evaluaciones de preparación solo miran una dimensión, generalmente las habilidades. Pero la preparación para IA tiene cuatro dimensiones distintas, y una brecha en cualquiera de ellas puede descarrilar un despliegue.

Dimensión 1: Habilidades. ¿Puede su equipo usar las herramientas de IA de manera efectiva? ¿Comprenden la construcción de prompts, la evaluación de resultados y cuándo no confiar en los resultados generados por IA?

Dimensión 2: Datos. ¿Están los datos que necesitarán sus herramientas de IA completos, precisos, consistentes y accesibles? Las entradas de datos deficientes producen resultados de IA deficientes a escala. La investigación de calidad de datos de IBM estimó que la mala calidad de los datos cuesta a las empresas estadounidenses $3,1 billones anuales — y los sistemas de IA que ingieren datos de baja calidad no solo tienen un rendimiento inferior, sino que producen resultados incorrectos con apariencia de seguridad que son más difíciles de detectar que los errores obvios.

Dimensión 3: Procesos. ¿Están los Workflows que quiere que la IA asista documentados y seguidos de forma consistente? La IA puede optimizar o automatizar un proceso, pero no puede hacer que un proceso no documentado e inconsistentemente seguido funcione mejor.

Dimensión 4: Herramientas. ¿Son sus herramientas actuales capaces de IA? ¿Está usando las funciones de IA que ya ha pagado? ¿Dónde están las brechas?

Evaluar las cuatro antes de un despliegue le da un plan de acción secuenciado. Evaluar solo las habilidades le da un programa de formación que fracasa porque los datos no estaban listos.


Dimensión 1: Evaluación de Habilidades

Niveles de Alfabetización en IA

Antes de realizar la encuesta, calibre las expectativas. La alfabetización en IA existe en un espectro:

  • Consciente: Comprende que existen herramientas de IA, ha usado una o dos. No puede describir cómo obtener resultados consistentes. Necesita formación fundamental.
  • Capaz: Usa herramientas de IA regularmente para tareas específicas. Puede escribir prompts básicos, evaluar la calidad del resultado e identificar cuándo la IA está equivocada. Listo para la integración en Workflows.
  • Competente: Diseña Workflows asistidos por IA, crea plantillas de prompts para el equipo, forma a colegas de forma informal. Listo para casos de uso avanzados.
  • Avanzado: Construye sistemas de IA, evalúa herramientas, lidera la estrategia de IA para la función. Puede diseñar marcos de gobernanza y medición.

La mayoría de los departamentos que realizan una evaluación inicial de preparación encontrarán una distribución entre Consciente y Capaz, con algunos individuos Competentes.

Encuesta de Evaluación de Habilidades de IA (12 Preguntas)

Distribuir a todos los miembros del equipo. Puntuar individualmente, luego agregar.

Instrucciones: Califíquese en cada afirmación usando la escala: 1 = Para nada / 2 = Algo / 3 = Mayormente / 4 = Completamente

# Afirmación Puntuación (1-4)
1 Puedo escribir un prompt que produzca consistentemente el resultado específico que necesito de una herramienta de IA
2 Puedo identificar cuándo un resultado generado por IA es probablemente incorrecto o poco confiable
3 Sé qué tareas en mi trabajo diario las herramientas de IA pueden asistir de manera significativa
4 Entiendo la diferencia entre texto generado por IA que necesita edición intensiva vs. texto utilizable
5 Puedo describir las entradas de datos que mis herramientas de IA usan para generar resultados
6 Sé cómo dar feedback a una herramienta de IA para mejorar sus resultados sin empezar de nuevo
7 Me siento cómodo/a explicando cómo uso las herramientas de IA a mi manager
8 Sé cómo manejar una situación en la que el resultado de la IA contradice mi propio juicio
9 Puedo identificar cuáles de mis procesos actuales podrían beneficiarse de la asistencia de IA
10 Entiendo las políticas de privacidad y seguridad de datos que rigen el uso de herramientas de IA en mi rol
11 He usado IA para completar una tarea de trabajo que anteriormente tardaba significativamente más
12 Puedo enseñar a un colega los fundamentos de cómo uso la IA en mi trabajo

Rúbrica de Puntuación Individual:

Rango de Puntuación Nivel Interpretación
12-24 Consciente Necesita formación fundamental en alfabetización de IA antes de la integración en Workflows
25-33 Capaz Listo para formación estructurada en herramientas de IA con refuerzo del manager
34-42 Competente Listo para casos de uso avanzados; considerar para rol de AI Champion
43-48 Avanzado Candidato para líder de IA, formador entre pares o participación en gobernanza

Puntuación Agregada del Equipo: Sume todas las puntuaciones individuales, divida por el número de personas. Interprete usando los mismos umbrales.

Habilidades por Rol (nivel Capaz mínimo recomendado):

Rol Habilidades Prioritarias para la Preparación en IA
Representante de Ventas Redacción de prompts para prospecting, funciones de IA del CRM, evaluación de resultados
Manager de Ventas Revisión del Pipeline con IA, herramientas de IA para coaching, interpretación de pronósticos
Marketing Generación de contenido con IA, analytics de campañas, comprensión del lead score
Ops/RevOps Informes con IA, automatización de Workflows, monitoreo de calidad de datos
Customer Success Resumen con IA, interpretación del health score, clasificación de tickets
Director/VP Fundamentos de estrategia de IA, evaluación de ROI, conciencia de gobernanza

Dimensión 2: Evaluación de Preparación de Datos

Las herramientas de IA son tan buenas como los datos con los que trabajan. Esta tarjeta de puntuación evalúa las cuatro dimensiones de calidad de datos que más afectan el rendimiento de la IA.

Tarjeta de Puntuación de Preparación de Datos (10 Criterios)

Califique cada criterio usando: Rojo = No cumplido / Amarillo = Parcialmente cumplido / Verde = Completamente cumplido

Completitud

# Criterio Rojo Amarillo Verde
1 Los campos de datos clave requeridos para los casos de uso de IA están completados para el 80%+ de los registros
2 Los datos faltantes tienen un proceso documentado para su recopilación o relleno

Precisión

# Criterio Rojo Amarillo Verde
3 Los datos se validan al ingresarlos (campos obligatorios, verificaciones de formato, deduplicación)
4 Los miembros del equipo comprenden cómo se ven los datos «correctos» para los campos clave
5 Existe un proceso para identificar y corregir datos imprecisos

Consistencia

# Criterio Rojo Amarillo Verde
6 La misma métrica se calcula de la misma manera en todos los sistemas e informes
7 Las convenciones de nomenclatura de campos son estandarizadas (no «Leads» vs. «contactos» vs. «registros» para la misma entidad)

Accesibilidad

# Criterio Rojo Amarillo Verde
8 Los datos que necesitan las herramientas de IA son accesibles vía API o integración directa (no bloqueados en hojas de cálculo)
9 Los miembros del equipo que necesitan interpretar el resultado de la IA pueden acceder a los datos subyacentes
10 Los permisos de acceso a datos están documentados y son apropiados para las integraciones de herramientas de IA

Puntuación de Preparación de Datos:

Puntuación Estado Acción
8-10 Verde Listo Proceder con la implementación de IA. Monitorear la calidad de los datos después del lanzamiento.
5-7 Verde (resto Amarillo) Condicionalmente Listo Abordar los elementos Amarillos antes del despliegue completo. Pilotar con los datos de alta calidad existentes.
Cualquier Rojo No Listo Corregir los elementos Rojos antes de comenzar. Los elementos Rojos en Precisión o Consistencia producirán resultados de IA poco confiables.

Estándares mínimos de datos para casos de uso de IA comunes:

Caso de Uso de IA Estándar Mínimo de Datos
Pronóstico del Pipeline de ventas Etapa del acuerdo, fecha de cierre, valor del acuerdo, historial de actividad — más del 90% completos
Lead scoring Tamaño de la empresa, industria, cargo, datos de engagement — valores de campo estandarizados
Informes automatizados Definiciones de campos consistentes, sin registros duplicados, marcas de tiempo confiables
Puntuación de salud del cliente Datos de uso del producto, historial de tickets de soporte, puntuaciones NPS — historial mínimo de 60 días
Prospecting con IA Datos de contacto con email, empresa, cargo — validados y deduplicados

Dimensión 3: Evaluación de Preparación de Procesos

La prueba de «documentado y seguido» es la pregunta más importante en la preparación para IA. Los procesos no documentados rompen las implementaciones de IA porque no hay nada consistente que asistir o automatizar.

Plantilla de Auditoría de Procesos

Para cada proceso clave que tocará su despliegue de IA, complete una fila.

Nombre del Proceso ¿Está Documentado? (S/N) ¿Se Sigue de Forma Consistente? (S/N) ¿Quién es el Responsable? ¿Candidato para IA? Acción Necesaria
Calificación de Leads S/N/Quizás
Avance de etapa de oportunidad S/N/Quizás
Actualización del pronóstico del Pipeline S/N/Quizás
Secuencia de outreach por email S/N/Quizás
Preparación y resumen de reuniones S/N/Quizás
Traspaso de Onboarding del cliente S/N/Quizás
Generación del informe semanal S/N/Quizás
Revisión de salud del cliente S/N/Quizás
Workflow de renovación del contrato S/N/Quizás
[Agregue sus procesos]

Cómo interpretar el estado de Candidato para IA:

  • S (Sí): El proceso está documentado, se sigue de forma consistente y tiene entradas/salidas claras. La IA puede asistir de inmediato.
  • Quizás: El proceso existe pero se sigue de forma inconsistente o está solo parcialmente documentado. Corrija la documentación y la consistencia primero; luego introduzca la IA.
  • N (No): El proceso es no documentado, ad-hoc o varía significativamente por persona. No introduzca IA aquí. Automatizará el caos.

La prueba de «documentado y seguido» explicada:

Un proceso está documentado si una nueva contratación podría ejecutarlo correctamente solo con la documentación. Un proceso se sigue de forma consistente si el 80%+ del equipo lo hace de la misma manera, sin excepciones impulsadas por preferencias personales.

Realice esta prueba: elija tres personas en su equipo y pídales que le describan el mismo proceso de forma independiente. Si las tres descripciones coinciden, es consistente. Si no coinciden, tiene una brecha de proceso que debe corregirse antes de que la IA pueda ayudar.


Dimensión 4: Análisis de Brechas de Herramientas

Muchos equipos ya tienen capacidades de IA que no están usando. Antes de presupuestar nuevas herramientas, evalúe lo que tiene. Cuando esté listo para presentar el caso de compra de las brechas que ha identificado, la guía del stack de herramientas de IA para equipos mid-market tiene la lista de verificación de integración y la calculadora de TCO que convierten los hallazgos de brechas en un marco de evaluación de proveedores.

Matriz de Brechas de Herramientas

Complete para cada herramienta que usa actualmente su departamento.

Nombre de la Herramienta Uso Principal ¿Función de IA Disponible? (S/N) ¿Usando la Función de IA? (S/N) Brecha / Acción
[CRM — p. ej., Salesforce] Gestión de contactos/Pipeline S (Einstein AI) N Activar y formar
[Email — p. ej., Outlook/Gmail] Comunicación S (Copilot/Gemini) S Expandir casos de uso
[Productividad — p. ej., Notion] Documentación S (bloques de IA) N Pilotar con 2 usuarios
[Analytics — p. ej., Looker] Informes S (resúmenes con IA) N Evaluar para el Workflow de informes
[Video — p. ej., Zoom] Reuniones S (notas con IA) N Implementar en todo el equipo
[Herramienta de engagement de ventas] Secuencias S (copia con IA) S Medir calidad vs. manual
[Plataforma CS] Gestión de clientes N Evaluar alternativas con IA
[Agregue sus herramientas]

Acciones por tipo de brecha:

Tipo de Brecha Qué Significa Acción
IA disponible, no se usa Victoria rápida — capacidad de IA por la que ya ha pagado Activar la función, agregar al alcance de la formación
IA disponible, uso parcial Oportunidad de optimización Estandarizar el uso y medir la calidad del resultado
Sin capacidad de IA Brecha de herramienta Evaluar alternativas con IA en la próxima renovación
Usando IA, pero resultado deficiente Problema de calidad de datos o prompts Auditar las entradas de datos y las plantillas de prompts

Ejecutar la Evaluación: Un Enfoque de Dos Semanas

Semana 1: Distribuir y Recopilar

  • Días 1-2: Envíe la encuesta de habilidades a todos los miembros del equipo. Explique el propósito (planificar inversiones en IA, no evaluar el rendimiento). Establezca un plazo de 5 días.
  • Días 1-2: Pida a cada líder de equipo que complete la tarjeta de puntuación de preparación de datos y la plantilla de auditoría de procesos para su función.
  • Días 3-5: Compile el inventario de herramientas con la ayuda de TI. Complete la matriz de brechas de herramientas.
  • Día 7: Agregue todas las respuestas. Calcule la distribución de puntuación de habilidades del equipo. Contabilice las puntuaciones de la tarjeta de datos. Cuente los procesos candidatos para IA.

Semana 2: Analizar y Desarrollar

  • Días 8-9: Prepare el resumen de preparación — puntuaciones por dimensión, brechas clave, prioridades de acción iniciales.
  • Día 10: Ejecute el taller de preparación del equipo (consulte la agenda a continuación).
  • Días 11-14: Finalice el plan de acción de preparación de 90 días basado en los resultados del taller.

Plantilla de Agenda del Taller de Preparación del Equipo

Duración: 2 horas | Asistentes: Líderes del equipo + manager

Parte 1: Resultados de Habilidades (30 min)

  • Presentar la puntuación de habilidades agregada del equipo y la distribución
  • Destacar las 3 principales brechas de habilidades de la encuesta
  • Debate: ¿Qué formación o apoyo creen los líderes del equipo que movería más a las personas?

Parte 2: Hallazgos de Datos y Procesos (30 min)

  • Presentar los resultados de la tarjeta de puntuación de preparación de datos — resumen Rojo/Amarillo/Verde
  • Presentar los resultados de la auditoría de procesos — cuántos candidatos para IA, cuántos elementos «corregir primero»
  • Debate: ¿Qué brechas de datos o procesos deben resolverse antes del despliegue de IA?

Parte 3: Revisión de Brechas de Herramientas (20 min)

  • Presentar la matriz de brechas de herramientas — victorias rápidas vs. brechas de herramientas
  • Acordar qué funciones de «IA disponible, no se usa» activar primero

Parte 4: Priorización (30 min)

  • Clasificar las 5 principales brechas por: impacto en el despliegue de IA x esfuerzo para corregir
  • Asignar un responsable y una fecha objetivo a cada una de las 5 principales brechas
  • Acordar las áreas de enfoque del Sprint de preparación de 90 días

Parte 5: Plan de Comunicación (10 min)

  • ¿Cómo se compartirán los resultados con el equipo más amplio?
  • ¿Cuál es el enfoque? (La preparación como oportunidad de crecimiento, no como evaluación de rendimiento)

Puntuación e Interpretación de Resultados

Después de la agregación de la Semana 1, calcule una puntuación general de preparación por dimensión.

Guía de Puntuación con Disparadores de Acción

Dimensión Método de Puntuación Umbral Acción
Habilidades Puntuación promedio del equipo (12-48) <25: Formación fundamental primero; 25-34: Formación estructurada durante el despliegue; 35+: Listo Formar primero, luego implementar herramientas de IA
Datos Número de criterios Verde (0-10) <5 Verde: Corregir antes del despliegue; 5-7 Verde: Pilotar con datos limpios; 8+ Verde: Listo Abordar los elementos Rojos primero — sin soluciones provisionales
Proceso % de procesos Candidatos para IA <30%: Alta necesidad de rediseño; 30-60%: Despliegue selectivo; 60%+: Despliegue amplio viable Priorizar los procesos documentados para los primeros casos de uso de IA
Herramientas % de capacidades de IA no usadas >50% sin usar: Victorias rápidas disponibles; enfóquese aquí primero Activar antes de comprar nada nuevo

Nivel General de Preparación:

Nivel Definición Enfoque del Despliegue
Listo (3-4 dimensiones fuertes) Proceder con el despliegue planificado. Ejecutar el despliegue completo del equipo. Despliegue estándar con soporte de formación normal
Condicionalmente Listo (2 fuertes, 2 con brechas) Proceder con piloto dirigido. Corregir brechas en paralelo. Pilotar con el sub-equipo listo; corregir brechas antes del despliegue completo
No Listo (2+ brechas importantes) Detener el despliegue. Ejecutar primero un Sprint de preparación de 90 días. Fase de corrección de brechas antes de cualquier despliegue de herramientas de IA

Convertir la Evaluación en un Plan de Acción

El resultado de la evaluación solo es valioso si impulsa la acción. Use este marco para traducir las brechas en un Sprint priorizado.

Marco del Sprint de Preparación de 90 Días

Prioridad Área de Brecha Acción Específica Responsable Cronograma Métrica de Éxito
1 [Brecha de mayor impacto] [Corrección específica] [Nombre] [Fecha] [Cómo sabrá que está hecho]
2 [Segunda brecha] [Corrección específica] [Nombre] [Fecha] [Métrica]
3 [Tercera brecha] [Corrección específica] [Nombre] [Fecha] [Métrica]
...

Regla de priorización: Corrija las brechas de datos antes que las brechas de habilidades. Un equipo formado trabajando con datos deficientes produce resultados de IA asistida deficientes con confianza. Corrija las brechas de documentación de procesos en paralelo con la formación. Necesita ambas listas al mismo tiempo. Para la propia inversión en formación, la guía del caso de negocio para el presupuesto de formación en IA convierte sus puntuaciones de brechas de habilidades directamente en el formato del modelo de ROI que finanzas necesita para aprobar el gasto.


Comunicar los Resultados al Equipo

Los resultados de la evaluación deben compartirse con el equipo, pero cómo los enmarca importa.

Haga:

  • Enmarque las brechas como objetivos de crecimiento, no como deficiencias. «Tenemos margen para desarrollar habilidades en X» llega mejor que «la mitad del equipo no pasó la evaluación de habilidades».
  • Sea específico sobre qué acciones está tomando basándose en los resultados. «Basándonos en lo que encontramos, estamos priorizando la formación en Y y corrigiendo los problemas de datos Z en los próximos 60 días» demuestra que la evaluación llevó a algún lado.
  • Reconozca que la preparación para IA es nueva para casi todos los equipos. Una puntuación de preparación modesta al inicio es normal y esperada.

No haga:

  • Comparta puntuaciones individuales públicamente. Los promedios del equipo son útiles; comparar individuos es contraproducente.
  • Sobreinterprete un único punto de datos. La evaluación de preparación es una instantánea, no un veredicto final.
  • Haga que la evaluación parezca una revisión de rendimiento. Es una herramienta de planificación.

Repetir la Evaluación

Ejecute la evaluación trimestralmente durante el primer año. Después, anualmente a menos que un cambio importante de herramientas de IA desencadene una evaluación fresca.

Qué rastrear con el tiempo:

  • Puntuación promedio de habilidades del equipo — debería aumentar con la formación y la práctica
  • Puntuación de preparación de datos — debería mejorar a medida que el trabajo de higiene de datos tenga efecto
  • Tasa de candidatos de procesos para IA — debería aumentar a medida que mejora la documentación
  • Tasa de capacidad de IA no usada — debería disminuir a medida que activa y adopta funciones

Rastrear la preparación con el tiempo crea un ciclo de retroalimentación: evaluación → acción → reevaluación → mostrar progreso. Esa visibilidad del progreso también es útil cuando está presentando el caso para una inversión continua en IA. La investigación de Deloitte sobre la madurez de la IA encontró que las organizaciones que miden formalmente la preparación para IA y reevalúan regularmente tienen significativamente más probabilidades de reportar un ROI positivo de IA que las que tratan la preparación como una verificación única.


Errores Comunes

Evaluaciones que nunca se traducen en acción. El fracaso más común. Completa la evaluación, identifica las brechas y luego nada sucede porque nadie es dueño de los elementos de acción. El paso de priorización del taller y los responsables nombrados evitan esto, pero solo si realmente hace responsables a las personas.

Puntuación demasiado severa. Un equipo que obtiene mayormente «Consciente» en habilidades puede desmoralizarse si los resultados no se enmarcan bien. Sea realista sobre dónde comienzan los equipos, y sea claro en que el punto es saber qué formación priorizar, no juzgar la capacidad actual.

Evaluar habilidades sin evaluar datos y procesos. Este es el error más costoso. Formar a su equipo para usar herramientas de IA que no podrán usar de manera efectiva porque los datos subyacentes no están listos desperdicia la inversión en formación. Ejecute las cuatro dimensiones.

Tratar la evaluación como un evento único. Las capacidades de IA y las habilidades del equipo evolucionan ambas. Una evaluación de hace 18 meses está desactualizada. Incorpore la cadencia trimestral en su calendario de planificación.


Próximos Pasos

Comparta los resultados de la evaluación con TI y RR.HH. como entradas para su ciclo de planificación anual. TI necesita saber qué integraciones de datos deben construirse o corregirse. RR.HH. necesita los datos de brechas de habilidades para planificar las inversiones en formación.

Y luego comience realmente el Sprint de 90 días. La evaluación solo vale el tiempo que lleva si cambia lo que hace en los próximos tres meses.


Más información