“Esto no es nuevo”, o “de esto llevamos hablando mucho tiempo”, son frases que se repiten con cierta frecuencia en los entornos laborales, cuando aparecen con fuerza algunos temas o conceptos. El caso es que lo que para algunos puede resultar novedoso, para otros, se trata de una reaparición o adaptación a los nuevos tiempos de conceptos con los que ya se ha convivido en el pasado y que pueden estar ya perfectamente integrados en nuestras actividades.
Este es el caso de “Human in the loop” (HITL). Traducido al castellano como «Humano en el bucle», hace referencia a sistemas en los que las personas participan activamente en algún paso de cualquier tipo de proceso, generalmente en su supervisión, en la toma de decisiones, o en la valoración y ajuste de sus resultados, asegurando que estos funcionen de manera eficiente, precisa y ética.
Desde hace décadas la participación de las personas en las organizaciones es clave para supervisar, ajustar y mejorar los sistemas automáticos. Por ejemplo, se interviene en el control de calidad para inspeccionar productos y corregir defectos que las máquinas automáticas no pueden detectar con precisión. En el caso del ensamblaje de vehículos o dispositivos electrónicos, las personas trabajan con robots para realizar tareas que requieren mayor capacidad manual y precisión, y que las máquinas por si solas no pueden realizar. Lo mismo ocurre con otros procesos industriales como el mantenimiento predictivo, con procesos informáticos como el desarrollo de software o la ciberseguridad, o con procesos de logística. Otros ámbitos como la salud o la educación también son objeto de la participación de las personas, debido a su alta sensibilidad.
Podríamos decir que la fuerte incursión de la Inteligencia Artificial (IA), y más específicamente de la IA Generativa, ha vuelto a poner en agenda el concepto de «Human in the loop» (HITL). Esto se debe a varias razones:
Con el avance de la IA Generativa (ex. GPT 3 y GPT 4), la complejidad de las tareas que pueden realizar estos sistemas se ha incrementado notablemente. Sin embargo, también ha aumentado el potencial de cometer errores y de proporcionar respuestas sesgadas, lo que hace más necesaria la intervención humana para supervisar, corregir y mejorar los resultados generados por la IA. Más aún, la IAG tiene capacidad de crear contenido, tomar decisiones y generar respuestas que en muchas ocasiones tienen implicaciones éticas y morales muy relevantes. Por lo tanto, la supervisión humana es totalmente necesaria para asegurar que estos sistemas operen dentro de marcos éticos adecuados, evitando daños potenciales y asegurando la responsabilidad en el uso de la tecnología.
La intervención humana en la IA es esencial para garantizar decisiones éticas y personalizadas, especialmente en sectores críticos como la salud y la educación.
En el otro lado de la balanza, la intervención de las personas se torna clave para maximizar la efectividad y el potencial de la IA, en definitiva, adaptando y personalizando los sistemas de IA para diferentes contextos y usuarios. Esto es especialmente interesante en ámbitos como la educación o la salud, por su capacidad de ajustar las respuestas y acciones de la IA a necesidades específicas. En el ámbito de la salud, la intervención humana es crucial para personalizar diagnósticos y tratamientos. Por ejemplo, mientras que la IA puede detectar patrones y anomalías en imágenes médicas, los profesionales pueden interpretar estos resultados en el contexto del historial clínico del paciente y otros factores específicos de cada caso, lo que permite personalizar los planes de tratamiento de manera que sean más efectivos para cada individuo. En educación, el profesorado puede supervisar las recomendaciones que ofrecen los sistemas de aprendizaje adaptativo mejorados con IA, para ajustar el contenido propuesta según su conocimiento del contexto del estudiante, sus preferencias de aprendizaje y otros factores emocionales y sociales.
En definitiva, el enfoque “Human in the loop” es fundamental para el entrenamiento continuo de los modelos de IA y la supervisión de sus resultados, ya que las personas etiquetan datos, proporcionan valoración para favorecer la retroalimentación y ajustan los algoritmos para mejorar la precisión y reducir los sesgos a lo largo del tiempo.
La colaboración entre humanos y sistemas de IA maximiza la precisión y minimiza los sesgos, asegurando resultados más efectivos y responsables.