La propuesta de Directiva europea relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales exige que, en entornos fuertemente digitalizados, siempre debe existir un control humano. Esto implica que la decisión sobre un puesto de trabajo no puede quedar exclusivamente en manos de una inteligencia artificial.

Elon Musk, junto con otros colaboradores, creó en 2015 un modelo de lenguaje denominado Chat GPT. Visualmente, funciona como un chatbot similar a otros con los que ya interactuamos como parte de los servicios de atención al usuario de las compañías más reseñadas. Sin embargo, tiene una esencial diferencia con estos. Es capaz de dar respuestas difíciles de diferenciar, a ciertos niveles, de las que daría el profesional humano. Su secreto es que puede recurrir a bases de datos para localizar el origen de la información solicitada y es capaz de combinar recursos para generar respuestas. Dicho de otro modo, en realidad hace una cierta labor de investigación, similar a la que podría llevar a cabo cualquier humano.

El hecho de que sea un recurso gratuito, de fácil acceso para cualquier usuario, unido a su enorme potencial, ha provocado en las últimas semanas una explosión de usos, que parece poner en duda la futura viabilidad de los empleos basados en tareas que requieren documentación y análisis de datos. Incluso se ha viralizado una oferta millonaria, lanzada en Estados Unidos, a quien se ofreciera a dejarse dictar los argumentos jurídicos a usar en un juicio por esta inteligencia artificial.

No podemos negar que, en los próximos años, este tipo de tecnologías supondrán un enorme reto para las relaciones laborales y que, probablemente, lo harán de forma más rápida de lo previsto por su enorme capacidad creativa.

Quizá por esto, en fecha muy reciente se ha hecho pública la propuesta de Directiva del Parlamento Europeo y del Consejo, relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales. Uno de los objetivos de esta norma es garantizar que, en entornos fuertemente digitalizados, siempre existirá un control humano y un mínimo contacto humano. Así, el empleado quedaría protegido de los efectos adversos sobre su contrato de trabajo de decisiones automatizadas. De hecho, lo que se pretende es fijar una suerte de “cupo” humano, que garantice que el empleador contará siempre con personas en número suficiente y con formación de calidad, cuya función sea monitorizar las decisiones tomadas sobre la plantilla, de forma automática, con impacto en el empleo. El control humano se presenta, así, como el último mecanismo de garantía y debe tener capacidad para anular y dejar sin efecto las decisiones automatizadas. Además, debe ser capaz de dar explicación sin demora sobre cualquier decisión adoptada que afecte significativamente al empleo.

En definitiva, no se quiere permitir que un empleo pueda verse afectado únicamente por la decisión de una inteligencia artificial, sino que, al menos, exista una persona en la estructura de la empresa que haya supervisado la decisión adoptada. Y que, si ha sido errónea a juicio del supervisor, pueda dejarla sin efecto evitando así perjudicar el empleo.

Esta norma parece iniciar la senda de un nuevo catálogo de garantías mínimas en las condiciones laborales, con la que se persigue dotar de mecanismos de seguridad “humanos” que defiendan a los empleados de la inteligencia artificial. Se desplaza así la figura del empleador a un discreto segundo plano, ya que se le habilita para delegar en la inteligencia artificial determinadas decisiones, aunque no con plena libertad pues debe existir un último control por su parte.

En definitiva, una inteligencia artificial podrá tomar decisiones significativas sobre el empleo siempre que, antes de su ejecución, se pueda acreditar que se ha supervisado la decisión por parte de un humano.

Pablo Salguero

Departamento Laboral de Garrigues