lunes, 18 de diciembre de 2023

Trabajadores de aplicaciones: UE aprueba proyecto de Directiva

Luego de dos años de intensas negociaciones, el miércoles pasado 13 de diciembre la Unión Europea alcanzó un acuerdo en torno a un proyecto de Directiva que pretende regular las condiciones laborales del modelo de trabajo via aplicaciones, caracterizado en especial por los choferes de Uber y los repartidores.

            Si bien aún no son conocidos todos los detalles de la futura Directiva europea,

la misma establece una presunción de laboralidad o subordinación, cuando el vínculo contractual reúnan determinadas condiciones. Será una presunción simple, por lo cual corresponderá en tal caso a la empresa demostrar que la prestación era autónoma. A los trabajadores alcanzados por la presunción de laboralidad, se les garantizarán los derechos laborales correspondientes.

De todos modos, según los expertos, la Directiva solo alcanzará a una limitada parte de las personas que prestan servicios a través de aplicaciones. En efectos, en la UE se calcula que el número de trabajadores de aplicaciones es de 30 millones de personas que trabajan para aproximadamente 500 plataformas, estimándose que los trabajadores que se beneficiarán con la Directiva serán solo 5,5 millones, es decir menos del 20%.

            ¿Cómo se determina la presunción de laboralidad? La Directiva establece un criterio bien curioso: existirá una presunción de subordinación si  los trabajadores cumplen con dos criterios de los cinco previstos por sus reglas.

Los criterios previstos son: a) la determinación por parte de la plataforma del nivel de dinero que recibe el trabajador, b) la supervisión de su rendimiento, c) el control sobre la distribución o asignación de tareas, d) el control también sobre las condiciones de trabajo y horario y e) las restricciones acerca del vestuario o la conducta. Esta lista puede ser ampliada por los Estados en su legislación nacional.

            Otra interesante novedad refiere al hecho que se establecen a nivel europeo reglas que alcanzan el uso de algoritmos e IA en el trabajo. En efecto el proyecto de Directiva – en linea con lo ya establecido en la ley de riders en España (recordemos que actualmente España ocupa la presidencia del Consejo de la UE) - protege a los trabajadores contra el uso abusivo de ciertos datos personales y el entramado de los algoritmos, obligando a sustituir ciertas decisiones de la aplicación por una supervisión humana.

Como indica Catalina Guerrero (EuroEFE, 13/12/23), la nueva normativa impedirá que las plataformas puedan utilizar sistemas automatizados de supervisión y toma de decisiones sobre el estado emocional de los trabajadores ni sobre sus conversaciones privadas, así como tampoco con relación a sus datos biométricos. La Directiva impide además que cualquier decisión de terminar, restringir o suspender una relación laboral sea tomada en base a un algoritmo, al tiempo que los representantes de los trabajadores tendrán acceso a la información completa y detallada sobre los sistemas automatizados de supervisión y toma de decisiones utilizados por la plataforma.

            Ahora el proyecto pasará al Consejo y al Parlamento europeos, que deberán formalmente transformarlo en una Directiva. Luego los países miembros de la UR tendrán dos años para traspasar las normas al derecho nacional.

 

lunes, 11 de diciembre de 2023

Europa aprueba la "IA Act"

Tras más de dos años y medio de debate (el proyecto se presentó por primera vez en abril de 2021), y tres días (desde el miércoles de tarde al viernes de noche)  de intensas negociaciones finales, la Unión Europea aprobó el viernes 8 de diciembre la IA Act o Ley de Inteligencia Artificial.
Más que una ley – en los términos en que definimos el término – se trata de una serie de reglas que limitan o prohiben la intervención de la Inteligencia Artificial, que deberá ser ratificadas por el Parlamento Europeo y el Consejo de la Unión (esta última es la institución que representa los países de la Unión).
    El texto es considerado como la normativa más amplia aprobada al presente que establece reglas en la materia: un texto menos importante fue aprobado en agosto por China en materia de IA generativa. Entre los principales criterios que establece la nueva reglamentación se señala la prohibición de los sistemas biométricos para identificar las personas y la extracción indiscriminada de rostros de internet.     Como siempre, se establecen excepciones, como por ejemplo la posibilidad que la policía pueda utilizar sistemas de identificación biométrica en espacios públicos para la prevención de determinados delitos. Entiendo en una primera aproximación que la reglamentación estaría impidiendo al empleador de establecer sistemas de control en base a datos biométricos, cuestión extensible al poder que tiene hoy la tecnología “wearable” o de la llamada “ropa inteligente”. 
    También las normas incluyen requisitos para consolidar el principio de la transparencia, que se aplicarán a los modelos de IA llamados de “propósito general”. como el GPT-4 de OpenAI, que promueve el ChatGPT. La IA de propósito general (IAPG) es también conocida como inteligencia artificial fuerte y se diferencia de la IA de propósito específico (IAPE), por ser capaz de resolver una amplia variedad de problemas, en lugar de estar diseñada para resolver un problema específico.
    La IA Act muestra cierta flexibilidad en función del tipo de riesgo que produce la Inteligencia Artificial. Se establecen así niveles de riesgo que van desde los más bajos y tolerables hasta los más altos e “inasumible”. Para la IA de "riesgo mínimo", la normativa establece una serie de recomendaciones, sin específicas obligaciones. En cambio, en los casos de IA de alto riesgo (los ejemplos que se ponen son lo relacionado con infraestructuras críticas, como instalaciones de agua, gas y electricidad o dispositivos médicos), se establecen normas de estricto cumplimiento, que incluyen sistemas de mitigación de riesgos, registros de actividad, controles y supervisión, y aportación de información clara y precisa.
    El nivel, llamado de "transparencia específico", establece la obligación de comunicar a los usuarios - en el caso de los chatbots - que están interactuando con una máquina. Finalmente, el nivel de "riesgo inaceptable" incluyel a las IA que "manipulan el comportamiento humano para eludir el libre albedrío de los usuarios". En esos casos, lisa y llanamente se establece la prohibición. 
Las nuevas normas de la Unión Europea – una vez concluido el trámite de la ratificación – tendrán evidentes efectos obligacionales para empresas como Google, OpenAI, Meta, Apple, Microsoft, etc. 
Como hemos ya expresando, la normativa de la Unión Europea – que ya incluía el “Reglamento General de Protección de Datos del Parlamento Europeo” (RGPD), en vigencia el 24/05/2016, con aplicación a partir del 25/05/2018, a la que ahora se agrega la IA Act – debe servir como fuente de derecho comparado de altísimo nivel, para guiar las decisiones jurídicas a nivel administrativo (AGESIC) y parlamentario en nuestro país. En efectos, hoy la normativa europea es la principal fuente de derecho comparado en una materia - compleja y difícil de regular -, que impacta cada vez más sobre el sistema de relaciones laborales.  

 

lunes, 4 de diciembre de 2023

¿Qué opina Ud. de la justicia predictiva?

Cuando los colegas o un periodista me preguntan sobre cuestiones laborales siempre logro de una forma u otra contestar con cierto criterio. Pero el criterio no es suficiente cuando la pregunta es formulada por un estudiante. Los estudiantes quieren contestaciones concretas y claras, más que confusos criterios. Es por eso que las preguntas de los estudiantes siguen siendo una prueba de examen para mi.

“Profesor, ¿qué opina de la justicia predictiva?”: breve y categórica pregunta de una estudiante, que puede descolocar al interlocutor impreparado. Por suerte en el caso, tenía noción de la justicia predictiva, que asociaba a la posibilidad que los robots dictaran sentencias, como se viene anunciando en otros países. De todos modos, traté de ganar tiempo prometiendo  una contestación más precisa a través de una comunicación por correo electrónico. 

La pregunta obligaba a estudiar y manejar ideas sobre este nuevo desafío de la Inteligencia Artificial, que recién asoma por estas latitudes.

Pero vayamos por partes: ¿Qué es la justicia predictiva?

En una primera aproximación, es aquel proceso informático – similar a la Inteligencia Artificial generativa - que a partir de la información existente en bancos de datos jurisprudenciales, genera una sentencia nueva y específica al caso examinado.

Uno de los principales expertos en la nueva materia, Ettore Battelli (Universidad de Roma Tres) define la justicia predictiva como la posibilidad de prever el resultado de un juicio a través de algunos cálculos, en particular predecir la probable sentencia relativa a un caso específico con el auxilio de algoritmos. Agrega el autor: “El recorrido de la toma de decisiones con la intervención de la IA se configura ante todo creando bases de datos que contengan el conjunto de normas; el archivo de la jurisprudencia sobre los precedentes; la predisposición de modelos de redacción judiciales; el uso de un lenguaje jurídico predeterminado y vinculado a nivel semántico; la sistematización, identificación e indexación de los contenidos argumentativos. Esencialmente se trata de proyectar algoritmos finalizados a la identificación de soluciones sobre la base de precedentes judiciales y otros elementos, según un esquema matemático, con la introducción de pruebas y elementos factuales como input, y la decisión final como output.

El profesor argentino Perez Ragone (Universidad Nacional de Tucumán) expresa que la justicia predictiva analiza masivamente decisiones judiciales anteriores para identificar tendencias en un caso específico. A su vez,  el italiano Luigi Viola (autor de del  texto laboral La giustizia predittiva del lavoro, Universitá de Udine) considera que la función y utilidad de la justicia predictiva es  prever la posible sentencia sobre un caso similar, a través de la ayuda de algoritmos.

Interesante la opinión del ex Miembro de la Suprema Corte de Justicia (Sala Laboral) de Colombia, Molina Monsalve, quien admite la IA en la elaboración de posibles “proyectos de sentencia”. El Magistrado expresa: “En el estado de evolución actual de los sistemas de IA, una sentencia producida por estos no debe ser más que un proyecto puesto a consideración del juez. Será éste, en últimas, quien deba dilucidar críticamente el caso, sin aceptar a rajatabla lo que diga el sistema de IA. Cuando uno observa la mayoría de los marcos normativos que se han  emitido hasta ahora sobre la IA (por ejemplo el de la Unión europea, el de la UNESCO, la Declaración de Santiago, etc.), ellos siempre prescriben que las conclusiones y "decisiones" de los sistemas de IA (sobre todo en ciertas áreas que tocan con los seres humanos y su dignidad), deberían ser sometidos a una auditoría humana. Vale decir, deben ser seres humanos quienes tomen las decisiones finales. La razón para esto es que esos sistemas (sobre todo los llamados "generativos"), construyen sus conclusiones basados en las gigantescas bases de datos en los que ellos son entrenados. Y tales bases de datos pueden tener sesgos discriminatorios, o datos erróneos. La IA no puede -por lo menos hasta ahora-, igualar la inteligencia humana, si bien puede ser una herramienta muy útil en el campo del derecho, por ejemplo por la rapidez con que puede arrojar información fundamentada en data, que a un humano le implicaría gran cantidad de tiempo”.   

En definitiva, al hablar de justicia predictiva, estamos refiriéndono a un “juez-robot” o – en forma más técnica – a una aplicación alimentada por miles o millones de datos jurisprudenciales y por elementos probatorios oportunamente digitalizados, que permite a la Inteligencia Artificial dictar una sentencia a partir de la introducción de determinados hechos. 

¿Es la justicia predictiva la justicia del siglo XXI?, como anuncia desde la tapa de su libro el Prof. Paulo Suarez Xavier de la Universidad de Málaga ; o ¿Puede el derecho reducirse a algorítmos? como se pregunta Frederic Rouviere, jóven profesor de la Universidad de Aix-Marseille.

Los defensores de la justicia predictiva señalan dos ventas: a) una mayor rapidez y eficiencia; b) una seguridad jurídica más imparcial que la del ser humano. Sobre este segundo aspecto ya hemos expresado en el pasado que las decisiones del algoritmo no se basan en corazonadas o en percepciones subjetivas.

Entre las desventajas podemos indicar: a) la perpetuación de perfiles y sesgos, recogidos por los antecedentes jurídicos; b) la acumulación de los datos del pasado, que impide nuevas construcciones jurisprudenciales; c) la ausencia de percepciones individualizadas; 

La estudiante (que está preparando una tesina de Derecho informático, lo cual está indicando que el tema ha aterrizado en nuestra Facultad) no se resigna con mi explicación, y me pregunta: ¿pero Ud., profesor, está a favor o en contra de la justicia predictiva?

Contesto lleno de dudas: Es de difícil imaginar la aplicación en nuestro país de una justicia predictiva, porque se reconoce a los jueces una amplia libertad para decidir sobre el conflicto planteado. El valor justicia reposa sobre la convicción psicológica del juez ante el asunto examinado, que debe expresar su imparcialidad, aunque también la discrecionalidad y valoración personal al dictar sentencia. Para muchos magistrados un sistema procesal que obligara a los jueces a respetar la jurisprudencia mayoritaria sería una forma de quitar libertad al decisor, anclando la jurisprudencia a un inmovilismo no deseable si se quiere defender la idea de un derecho vivo. 

En nuestro país ello es así – independientemente de las tecnologías -: un fallo o una posición firme de la Suprema Corte de Justicia es un elemento orientativo para un juez, pero nunca puede obligarlo en su decisión. 

En mi opínión – expreso a la estudiante - la justicia predictiva puede sin embargo ser un interesante instrumento para facilitar las transacciones. Me explico: con un correcto manejo de los datos, la justicia predictiva tendría la ventaja real de limitar la conflictividad, porque las partes y sus profesionales podrán preveer – en muchos casos - con mayor certeza el resultado final de un juicio y por lo tanto buscar la vía más rápida (y a mi entender eficaz) que es en definitiva la transacción. 

Ello siempre en una fase extrajudicial. No imagino que sea admisible en nuestro país el “juez robot”, no solo por motivos estrictamente jurídicos, sino por lo que dije al comienzo: en la visión de nuestra judicatura la discrepancia entre los magistrados es considerada un hecho positivo y una forma de progresar en la construcción de la jurisprudencia. Ello es así, aunque el precio a pagar sea muchas veces la existencia de “dos o hasta tres jurisprudencias” distintas, que castiga a las partes y a sus asesores a la incertidumbre más absoluta sobre el resultado del juicio, “hecho bien notorio -. concluyo - en materia laboral, que es la disciplina desde la cual opino”.

No sé si mis contestaciones conformaron a la estudiante. Lo cierto es que yo quedé con más dudas e inquietudes, de cuando comencé a examinar este tema tan cercano al avance exponencial de la Inteligencia Artificial en nuestra sociedad.