Tres años después de ChatGPT y lo que sí cambió en el trabajo -Adriana Páez Pno
Tres años después de ChatGPT y lo que sí cambió en el trabajo -Adriana Páez Pno

Desde el 30 de noviembre de 2022, la IA dejó el laboratorio y entró en el día a día del trabajo. Correos y documentos, clases, reuniones, soporte y análisis. En Descubriendo la IA en el trabajo he seguido ese tránsito, de la curiosidad al uso con propósito. Hoy, ChatGPT y otros modelos operan como infraestructura silenciosa. No siempre se ven; cuando fallan, se nota.
Sigue circulando la idea de que “la IA aprende sola de internet y puede con todo”. No describe el desempeño real. La mejora sostenida depende de criterio humano. Definir qué problema resolver, diseñar casos representativos, documentar el razonamiento, fijar estándares, corregir errores, controlar sesgos e incorporar el contexto de cada organización. Sin ese trabajo, el modelo responde. Con ese trabajo, cumple estándares.
Este blog aborda ese punto ciego. Entender la IA en el trabajo exige mirar a quienes la entrenan y la alinean desde su experiencia. Ahí se deciden calidad, seguridad y utilidad. También ahí aparecen las oportunidades profesionales: convertir el oficio en reglas operativas que la IA respete, medir con evidencia cuándo mejora y decidir con criterio cuándo automatizar, cuándo pedir revisión humana y cuándo frenar.
La narrativa incompleta: “la IA lo hace sola”
Decir que “aprendió de internet y puede con todo” no explica el buen desempeño. Un sistema mejora cuando convertimos la experiencia en criterios operativos. El proceso es claro. Primero se define el problema y el caso representativo. No es lo mismo una ecuación que un caso clínico con datos inconsistentes. Cambia qué datos pesan, qué cuenta como alerta y cómo se prioriza.
Luego se documenta la respuesta ideal con su razonamiento. No basta el resultado. Importa el camino, las alternativas descartadas y las condiciones que modificarían la decisión. Eso enseña método y reduce atajos. Después se fijan estándares medibles. Qué es aceptable, qué es excelente y qué es riesgoso. En derecho laboral, una respuesta sin norma o sin jurisprudencia no pasa. En salud, no hay diagnóstico válido sin descartar banderas rojas.
Sigue la prueba en el borde. Evaluación con escenarios límite, sesgos y ambigüedades frecuentes. El objetivo es delimitar dónde el sistema puede operar y cuándo requiere revisión humana. Por último, se integra el contexto propio. Protocolos, taxonomías, formatos y normativas locales con procedencia y permisos. Sin esa capa, el modelo suena plausible pero no sirve en el entorno real.
Nada queda fijo. Hay ciclos de actualización porque cambian leyes, guías, mercados y datos. Así se pasa de un sistema que solo responde a uno que trabaja bajo estándares y puede auditarse.
Del etiquetado básico a modelar el oficio
Antes, entrenar modelos era clasificar ejemplos simples. Hoy marca la diferencia modelar cómo se trabaja en la práctica. Eso implica diseñar casos que reflejen situaciones reales con sus ambigüedades y límites de seguridad, definir criterios de calidad explícitos qué es aceptable, qué es excelente y qué es inseguro y verificar resultados con evidencia antes de llevarlos a producción. Importa menos la cantidad de datos y más que cubran bien el problema.
Con rúbricas claras, el modelo deja de imitar estilos y empieza a cumplir estándares. Con gobernanza trazabilidad de datos, pruebas de estrés y actualizaciones periódicas el sistema se mantiene útil cuando cambian normas, protocolos o mercado.
La oportunidad profesional está en convertir la experiencia en reglas operativas. Cada campo aporta algo distinto: en derecho laboral, umbrales de riesgo y referencias obligatorias; en educación, evidencias de aprendizaje y límites para datos de estudiantes. No se trata de “saber de IA” en abstracto, sino de dominar tu área y describirla con precisión para que la IA la respete.
Para empezar de forma concreta, conviene un paquete mínimo: un conjunto breve de casos representativos, las respuestas ideales con su razonamiento, una rúbrica graduada de calidad, un gold set para medir mejoras y un protocolo de actualización. Con eso pasas de acumular datos a entrenar criterio.
Oportunidades para profesionales: del “me reemplaza” al “yo la entreno”
La oportunidad no está en “aprender IA” como fin en sí mismo. Está en traducir tu oficio a criterios que un sistema pueda seguir sin perder contexto. Eso es lo que hoy compran las organizaciones: personas que entregan casos representativos, rúbricas de calidad y un conjunto de prueba para que la IA rinda donde importa.
El diferencial, para perfiles técnicos y no técnicos, combina dominio profundo del campo y capacidad de explicarlo con método. En la práctica significa escribir el razonamiento detrás de una decisión, fijar límites de uso y costos de error, y dejar claro qué es aceptable, qué es excelente y qué es inseguro. No es “prompting creativo”, es diseño de criterio.
En nuestra región se materializa trabajando en español, con normativa local y estilos sectoriales documentados, y midiendo mejoras con un gold set realista. Resultado: menos respuestas genéricas y más decisiones alineadas con la forma en que se trabaja de verdad.
Para empezar conviene algo pequeño y verificable. Elige un proceso que conozcas bien, redacta 10–15 casos que lo representen, escribe la respuesta ideal con su porqué, define una rúbrica breve y prepara el conjunto de evaluación. Con ese paquete ya puedes demostrar valor: si mejora, escalas; si no, ajustas. En ambos escenarios ganas criterio y posicionamiento. La IA no sustituye tu experiencia; la escala cuando la conviertes en reglas claras.
Dimensión ética y laboral: quién cuida a quienes entrenan la IA
El desempeño de un sistema depende de personas que entrenan, evalúan y moderan. Junto a contratos bien pagados conviven tareas de anotación y moderación con baja remuneración y exposición a contenido dañino. La organización que despliega IA comparte responsabilidad por esas condiciones, incluso cuando subcontrata.
La base es la trazabilidad. Cada dato y cada corrección deben registrar procedencia, permisos y rastro de cambios para permitir auditoría y reparación. Luego viene el bienestar del equipo: límites de exposición a material sensible, rotación de tareas, pausas, apoyo psicológico y canales seguros para reportar incidentes. No es accesorio, afecta la calidad del modelo.
También importa la propiedad intelectual. Rúbricas, casos y guías requieren titular definido, reglas de uso y reconocimiento. Sin claridad contractual se desincentiva documentar y mantener estándares.
La equidad no se resuelve al final. Se incorpora desde el diseño con participación real de perfiles diversos y pago justo por conocimiento local. En América Latina esto implica políticas de datos comprensibles, métricas por subpoblaciones y la facultad de pausar despliegues cuando el riesgo supera el beneficio. Así la IA resulta útil, auditable y alineada con el trabajo profesional.
Nuevo contrato profesional: tu experiencia como activo estratégico
El diferencial ya no es competir con la máquina. Es enseñarle a trabajar bajo tus reglas. Esto exige tres movimientos continuos. Primero, traducir tu oficio en instrucciones, casos y límites que la IA pueda usar sin perder contexto qué resolver, cómo razonar, qué aceptar y qué descartar. Segundo, auditar con criterio lo que produce validar fuentes, exigir trazabilidad del razonamiento y medir contra estándares claros. Tercero, curar calidad y sentido decidir cuándo automatizar, cuándo pedir revisión humana y cuándo frenar.
Autoevaluación rápida: ¿Puedo explicar mi experiencia de forma estructurada para que otra persona o un sistema la siga paso a paso? ¿Detecto cuándo la IA “inventa” y sé cómo corregirlo? ¿Participo en decisiones donde mi conocimiento define cómo se diseña o se usa la IA?
Si alguna respuesta es “no”, no es un problema. Es una agenda. Documenta un proceso que domines con 10–15 casos representativos y su razonamiento. Define una rúbrica breve de calidad. Prepara un conjunto de prueba para medir mejoras. Ese paquete convierte tu experiencia en infraestructura gobernable, algo que la IA puede ejecutar y tu equipo puede supervisar.
ChatGPT no apareció de la nada. Se construyó con horas de criterio humano. Lo que cambia tras este aniversario es cómo nos ubicamos frente a la tecnología. No se trata de competir con un modelo, sino de hacer valer la experiencia como estándar operativo: diseñar casos que importan, fijar reglas claras y auditar resultados con evidencia. Cuando tu oficio se vuelve criterio, la IA pasa de respuesta plausible a desempeño bajo estándar.
Mi invitación es práctica. Elige un proceso que domines. Escríbelo para que alguien más pueda replicarlo mañana. Define cómo luce aceptable, excelente e inseguro. Pruébalo con un conjunto pequeño de casos. Si mejora, escala. Si no, ajusta el criterio. Eso más que “aprender IA” en abstracto es construir futuro profesional.
Para cerrar, una pregunta que ordena decisiones. ¿Qué parte de tu experiencia merece convertirse en regla para que la IA la respete y la escale?
#ObjetivoEmpleo #LinkedInNoticiasAméricaLatina #IA #FuturoDelTrabajo #ChatGPT #IAvanza #adrianapaezpino
