Tema central
NUSO Nº 294 / Julio - Agosto 2021

Inteligencia artificial: el derecho y el revés

La ingeniería inversa puede servir como un instrumento de resistencia para enfrentar el régimen de excepción establecido en favor del capital tecnológico, limitar la reproducción de desigualdades y subordinar los sistemas tecnológicos al control público y social propio de las sociedades democráticas. Entre los objetivos de esta estrategia están el derecho a la información, la fiscalización del cumplimiento de normas legales y la participación sindical en el establecimiento de las condiciones que afectan a los trabajadores sometidos al dominio tecnológico.

Inteligencia artificial: el derecho y el revés

Aspectos metodológicos preliminares: pensando el revés

La tecnología se sitúa en un área fronteriza entre las ciencias exactas y las humanas. A partir de esta premisa, este ensayo aborda, de manera transdisciplinaria, aspectos introductorios respecto de los algoritmos aplicados a los sistemas tecnológicos que se establecen en la inteligencia artificial débil 1 y sus funcionalidades estructuradas en favor de la producción capitalista. También nos enfocaremos, desde la óptica del revés y de las vertientes epistemológicas del Sur2, en los espacios de excepción establecidos en favor del capital tecnológico y en la importancia de llenar vacíos con jurimetrías capaces de contrarrestar las asimetrías sociales, así como en la necesidad de subordinar los sistemas tecnológicos al control público y social propio de las sociedades democráticas. En esto pueden jugar un papel fundamental instituciones como los sindicatos, especialmente en lo que se refiere al conocimiento, la verificación y la negociación colectiva tendientes a mejorar las condiciones de las masas de trabajadores y trabajadoras sometidos al dominio tecnológico.

El régimen de confidencialidad del código fuente, que suele estar protegido como derecho autoral de propiedad tecnológica frente a la competencia, es el marco que permite que funcionen los espacios de excepción cibernéticos3. Podemos pensar esta situación desde la teoría crítica, particularmente desde la crítica del progreso plasmada en las Tesis sobre la filosofía de la historia de Walter Benjamin. Desde el revés, y bajo la óptica de los «oprimidos digitales», la propuesta consiste en sacar a la luz los horizontes de la gobernanza por números mediante la razón invertida, es decir, proponiendo una inteligencia artificial inversa4. La ingeniería inversa (reverse engineering) avanza en sentido contrario al habitual, para obtener información a partir de un producto, con el fin de determinar cuáles son sus componentes y de qué manera interactúan entre sí. El control de la automatización a partir de técnicas de ingeniería computacional inversa puede ser un instrumento útil en la defensa de los derechos humanos y en otro tipo de resistencias y puede contribuir a la mitigación de la sobreexplotación del trabajo humano por el capital digital.

Los conceptos y técnicas de la ingeniería computacional inversa nos permitirían adentrarnos en otros espacios de excepción dentro de lo que se conoce como «discriminaciones estructurales digitales»; estas discriminaciones, aun apelando a estándares de derechos humanos, reproducen violencias históricas que suelen naturalizarse en prácticas de exclusión o distinción de grupos sociales.

La matemática computacional: la mítica de las métricas

El universo matemático está poblado por imaginarios, muchos de ellos heredados del racionalismo, que postulan la ciencia como apodíctica, capaz de renunciar a pensar las contradicciones en busca de la verdad. La verdad y la certeza, en esta mirada filosófica, se apoyan en la premisa (tomada por irrefutable) de la no contradicción, valiéndose de relaciones de igualdad o diferencia que, en un sistema binario, se expresan en la matemática computacional mediante los números 0 y 1. Esta lógica es lineal y se muestra, en principio, no afín al carácter dialéctico de la naturaleza humana y sus estructuras sociales. Los seres sociales se construyen en las experiencias, en el seno de las contradicciones inherentes a su totalidad: por un lado, en la sensibilidad y racionalidad inseparables, y, por el otro, en la división de clases y los factores interseccionales, como la raza o el género, en el marco de una estructura social compleja y asimétrica. Paradójicamente, la lógica de abstracción de los algoritmos aplicados a las estructuras tecnológicas de interfaz con la sociedad tiene el potencial de engendrar variables complejas, que son capaces de reconocer patrones sociales y de actuar identificando y reforzando desvíos y asimetrías sociales en sus conjuntos de datos. De ese modo, pueden aplicarse juicios matemáticos mediante la representación en el diseño de programas de software que ocultan exclusiones, distinciones, privilegios y otras formas de marginalización social que establecen o reproducen relaciones jerarquizadas y que son estructurantes de la sociedad. Pero la matemática computacional, desde otra perspectiva, puede también adoptar aritméticas preventivas y rectificadoras de las discriminaciones digitales que contemplen las variables sociales en la raíz de la programación. En su aprendizaje, la máquina tiene incluso la aptitud para señalar la razón de incremento de esas asimetrías. No obstante, la ausencia de imperativos legales y de un adecuado control estatal y social permiten que las tecnologías aplicadas a la intermediación del trabajo humano reproduzcan en mayor o menor grado las asimetrías sociales. La tecnología de software desmiente el mito de la neutralidad del desarrollo científico, que se arraiga en la creencia de que la matemática y sus conclusiones no dependen de los sujetos. Por el contrario, valiéndonos de aspectos de las críticas de Immanuel Kant –sin con ello adherir integralmente a sus premisas de escisión de la razón y la sensibilidad del sujeto–, podemos decir que los juicios matemáticos solo existen como un proceso de abstracción del sujeto, abstracción a la que esos juicios atribuyen sentido e instrumentalidad. Las ciencias matemáticas son una construcción humana. No se pueden escindir de las experiencias sociales, en incesante devenir, e incorporan sus luces y sombras y también sus conformaciones ideológicas; de ese modo, pueden reproducir sistemas de dominación y, dialécticamente, posibilidades de resistencia y emancipación. La matemática aplicada a las tecnologías no supone neutralidad onto-gnoseológica. Su objeto se amolda a las ideologías y se subordina a finalidades que se vinculan con intereses de los sujetos (o de grupos) por valores de diversos órdenes, especialmente económicos, y por el contexto social5. Renato Dagnino propone superar la idea de «determinismo tecnológico», destacando que cabe a la sociedad decidir sobre el control de la automatización y los rumbos de la tecnociencia, siempre con la posibilidad de reproyectar su camino en favor de la liberación de las distintas opresiones6. En el plano ontológico es toda una evidencia: la ciencia matemática aplicada a la tecnología afecta a los seres humanos y sus construcciones sociales. Claramente, el trabajo humano tiende a ser sustituido por sistemas automatizados de decisión, lo que exige pensar la protección del empleo de cara a la automatización7.

Algoritmos: decodificar conceptos

Los algoritmos son patrones matemáticos aptos para solucionar problemas simples o complejos, entre los que se incluye la posibilidad de cálculos con variables previamente condicionadas o libremente establecidas. Más que descifrar acertijos, los algoritmos ofrecen aplicaciones múltiples y, en el ámbito de la tecnología, la matemática computacional estructura las programaciones dando forma a los sistemas y las soluciones tecnológicas, diseñando redes y estableciendo importantes interfaces con plataformas de información, con el objetivo de abordar los datos en bruto, ordenarlos, clasificarlos según jerarquías poco claras, limitar o ampliar relaciones con sus interfaces, lo que incluye la interacción entre máquinas y humanos, y decidiendo por estos últimos o prediciendo incluso sus comportamientos. Las regulaciones para la «gobernanza algorítmica» de las estructuras tecnológicas son bastante deficitarias en términos globales. Prevalecen una cultura de no intervención y de ausencia del Estado en el campo tecnológico y una frágil protección del individuo ante la automatización, fruto del mito del progreso que tiene su raíz en la idea, estructurada por la ideología y ya bastante agotada, de que el libre desarrollo tecnológico y científico favorecería el avance de la civilización. En relación con esto, recordemos las famosas tesis de Benjamin acerca de la Historia: «la tradición de los oprimidos nos enseña que el ‘estado de excepción’ es, en realidad, la regla». En ese marco, varios sistemas tecnológicos, tales como las plataformas intermediarias para la contratación de mano de obra, se sitúan en un vacío jurídico en el que no se aplican los derechos previstos en las diversas legislaciones estatales, ni aquellos reconocidos como obligatorios por el derecho internacional de los derechos humanos.

La opacidad de la ingeniería constructiva de los algoritmos matriciales de un software sería, en esta línea de interpretación, la primera táctica de la que se vale el capital tecnológico para sustraerse al régimen de derechos e imponer ipso facto el estado de excepción. Conocer los algoritmos de modo estático, como una foto que muestra una combinación binaria, puede no revelar otras funcionalidades. Son los sesgos de los algoritmos los que reproducen, por extracción de datos, las desigualdades de partida que marginalizan históricamente a determinados grupos sociales y que, por regla general, no están contempladas en la programación inicial; a eso se suman otras malicias que los algoritmos que estructuran la programación de software pueden encubrir en sus sistemas en dinámica. Es valiosa la advertencia de que incluso softwares muy conocidos pueden contener vulnerabilidades como los malwares –ya sea programados en sus estructuras internas para ocultar ciertos aspectos y funcionalidades o ligados a interfaces tecnológicas de acción de terceros (hackers)–, que pueden también ejecutar funciones secundarias y maliciosas sin el conocimiento de los administradores y usuarios8. Mapear esos espacios desconocidos es una tarea posible mediante análisis rigurosos desde el punto de vista científico que, según Dan Farmer y Wietse Venema, son suficientes para revelar el contenido malicioso del software9. De cualquier modo, la protección jurídica de la propiedad tecnológica solo abarca aspectos de sus estructuras internas. Es posible adoptar técnicas propias de la ingeniería computacional inversa (descompilación y disassemblage o desmontaje) con el fin de hacer una descripción del código fuente para analizar sus funcionalidades primarias y secundarias, e identificar las combinaciones de análisis estáticas y dinámicas de las estructuras tecnológicas10. Pensando «a contrapelo», la aplicación de esta técnica a los artefactos tecnológicos puede convertir el espacio de dominación en el locus de una lucha de clases cibernética. El estado actual del desarrollo tecnológico y los análisis inversos permiten, además de un conocimiento de la raíz de la programación, introducir en las dinámicas algorítmicas funcionalidades de interfaces para el perfeccionamiento de software (modelos de utilidad) en favor de una jurimetría de verificación, no solo como medio técnico para la prueba pericial de verificación de la relación de empleo, sino ante todo para efectivizar normas jurídicas de protección de los trabajadores y trabajadoras y medidas de protección tecnológica de naturaleza sindical.

Parece posible, en el estado actual de la técnica de ingeniería computacional inversa, hacer un diagnóstico de los espacios jurídicos de excepción y detectar las métricas sociales y sus desvíos estructurales que reproducen relaciones sociales asimétricas y que conducen a una selectividad establecida bajo criterios inaceptables. Algunos de estos criterios están expresamente prohibidos en el plano jurídico internacional reconocido como ius cogens, y por lo tanto, son de alcance también obligatorio para las tecnologías que no respetan fronteras. En este escenario, es imperioso que las propuestas de resolución de la Organización de las Naciones Unidas (onu) respecto del marco regulatorio para empresas transnacionales contemplen los distintos aspectos del capital tecnológico y el cumplimiento de los derechos humanos sociales.

Recordemos además que los principios de igualdad y de no discriminación han sido asegurados por diversos tratados internacionales de derechos humanos. Factores de vulnerabilidad social tales como género, raza, color, etnia u origen nacional, opinión política o religiosa, entre otros, están contemplados en las convenciones 100 y 111 de la Organización Internacional del Trabajo (oit), que prohíben expresamente que «tengan por efecto anular o alterar la igualdad de oportunidades o de trato en el empleo u ocupación». Por lo demás, en cuanto al principio de libertad sindical y el estímulo a la negociación colectiva presentes en las convenciones 87 y 98 de la oit, la participación de sindicatos en la elaboración de algoritmos que afecten las condiciones de trabajo debe estar asegurada. También en la Declaración de Filadelfia se pregona que el trabajo humano no es mercancía y que la primacía de la libertad de trabajo (convenciones 29 y 105 de la oit) requiere echar luz sobre las formas modernas de dominación, incluyendo las de naturaleza tecnológica. Las prácticas de contratación abusivas y las condiciones de explotación de la actividad humana por intermedio de plataformas tecnológicas figuran como manifestación moderna de procesos esclavistas de antaño11.Naturalmente, no se trata de desconocer los esfuerzos, aunque dispersos e insuficientes, de reglamentación en cuestiones como la protección de datos de usuarios12, el trabajo mediado por plataformas tecnológicas, los negocios digitales y las criptomonedas. Pero hay un notable retraso del derecho respecto de estas innovaciones tecnológicas, un fenómeno especialmente marcado en los países periféricos y de capitalismo dependiente. Así y todo, los sistemas y artefactos tecnológicos pueden convertirse en mecanismos de resistencia en situaciones de sobreexplotación del trabajo en el capitalismo dependiente13 y pueden provocar rupturas con los patrones hegemónicos de las estructuras tecnológicas impuestos desde el Norte global, que carecen de la aptitud para reconocer las formas singulares de opresión del Sur global en las relaciones de trabajo.

Entre los códigos fuente y los códigos jurídicos

Navegando en una cultura de ausencia estatal, las estructuras tecnológicas tienden a regirse exclusivamente por sus propias regulaciones, consolidadas en los términos de uso de su software y sus artefactos. Las disposiciones se establecen unilateralmente desde el capital tecnológico y encuentran en la forma jurídica del contrato, pautada en la abstracción del consentimiento y la presunción de un acuerdo voluntario a partir de la simple adhesión, un espacio abierto a prácticas abusivas. Una simple revisión de las condiciones fijadas en las plataformas tecnológicas hegemónicas permite identificar innumerables situaciones no suficientemente claras.

A la par de este llamativo poder de autorregulación, las estructuras del capital tecnológico promueven sucesivas alteraciones algorítmicas en las condiciones de los contratos tecnológicos, por medio del llamado «estatus de actualizaciones» o mediante consentimientos por parte de sus «usuarios» que no siempre son suficientemente transparentes. El capital tecnológico actúa, así, como un Licurgo al revés. Si la leyenda nos dice que aquel gran legislador de Esparta cayó en el ostracismo una vez que el rey, a pedido suyo, decretó que la ley sobreviviese a los hombres y sus gobernantes, lo que ocurre con estos Licurgos hi-tech es todo lo contrario: una potestas variandi, es decir, condiciones plásticas de los términos de uso que funcionan como estrategia para eludir principios básicos del contractualismo heredados de la tradición del derecho romano y que se encuentran presentes en los sistemas jurídicos occidentales, en especial el pacta sunt servanda, según el cual la obligatoriedad de los términos de contratación es preponderante. Todas estas modificaciones de estatus operadas en lenguaje computacional, y que en el área del derecho corresponden a parámetros contractuales, afectan notoriamente a masas de consumidores y trabajadores en todo el globo, posibilitando y asegurando una dominación sin precedentes o, como bien lo define István Mészáros, una «subordinación totalizadora»14.Las pautas que el capital tecnológico se da a sí mismo al fijar su lex mercatoria infringen diversos fundamentos jurídicos tradicionales y son acatadas por Estados que renuncian en mayor o menor grado a su soberanía sobre los datos, sobre el impacto de las tecnologías en la sociedad (permitiendo con ello la imposición de un capitalismo transnacional y oligárquico) y sobre la protección de los trabajadores, con lo que promueven una gravísima concentración del poder económico.

Hay mucha opacidad en los diversos tipos de vigilancia aplicados por los sistemas tecnológicos, tanto en lo referido a la obtención y el procesamiento de datos como en la utilización de georreferenciaciones, telemetrías y técnicas de predicción15. Los algoritmos repiten operaciones encadenándolas a factores relacionales, de acuerdo con parámetros preestablecidos en la arquitectura del sistema (input) y/o derivados de interacciones con datos previos, a partir de sistemas de aprendizaje automático (machine learning), para generar soluciones (output) con una plasticidad que les permite adaptar la exposición periódica de datos y contrastes sucesivos a resultados reproducibles.

En la interacción dinámica entre tecnología y sociedad por medio del machine learning se oculta el revés de los algoritmos, lo que en el ámbito jurídico corresponde a la «discriminación digital», con parámetros de selectividad incorporados por desvíos en los datos analizados y operaciones digitales que reproducen en las estructuras tecnológicas las discriminaciones estructurales de la sociedad. Esto permite que el régimen de procesamiento de datos y los procesos de decisión propuestos por la inteligencia artificial sin «ajustes culturales» reproduzcan y profundicen las discriminaciones estructurales16. Este revés de los algoritmos presentes en plataformas tecnológicas pautadas por el deep learning nos permite afirmar que la relación entre máquinas y humanos se plasma en las fronteras de la ética y el derecho. Hasta el presente no hay noticias de la existencia de ordenamientos jurídicos que adopten previsiones de contenido ético y jurídico en las raíces de programación, es decir, de una jurimetría obligatoria, cosa que propongo como técnica imperiosa en el escenario actual del capitalismo digital. No hay ningún obstáculo técnico para la adopción urgente de una medida de este tipo como política pública, inscripta en las legislaciones nacionales y en los marcos regulatorios internacionales de los derechos intelectuales estructurantes del capital tecnológico. Por otro lado, los actores sociales también se valdrían de ella para la construcción de herramientas adecuadas de conocimiento por parte de sindicatos y otros actores legítimos, contemplando los factores que perjudican a sus representados y la construcción de modelos de utilidad para el perfeccionamiento de sistemas de plataformas, en términos tanto de control de la aplicación efectiva de los derechos laborales como de cumplimiento de las disposiciones negociadas de manera colectiva. Por el contrario, el grueso de los regímenes jurídicos permite que los algoritmos matriciales funcionen en la actualidad como cajas negras, confeccionadas con lenguaje de programación computacional que limita el conocimiento de sus aspectos estructurales. De esto se vale el capital tecnológico para postergar la aplicación de la legislación laboral.

Recientemente, España reconoció en un decreto-ley el derecho de los trabajadores a conocer «los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles», y junto con ello establece la protección del trabajo en plataformas intermediarias de contratación de mano de obra. El derecho a la información de los algoritmos y el reconocimiento de derechos para los trabajadores de aplicaciones es un paso muy relevante en materia de ciudadanía digital, pero no abarca la totalidad de las innovaciones en las interacciones entre seres humanos y máquinas en materia de inteligencia artificial. Las estructuras internas de los sistemas tecnológicos no se construyen con participación consciente (en sentido ético-filosófico) de sus «usuarios». Desde el punto de vista jurídico, los contratos, considerados como tales, no atienden las condiciones sustanciales que dan validez al consentimiento: la buena voluntad presupone que los términos de uso estén suficientemente claros y establecidos de buena fe, sin simulacros que conduzcan a errores de representación y deriven en diversas lesiones reconocidas por los sistemas jurídicos occidentales. Por lo demás, las discriminaciones digitales hoy solo pueden percibirse en los bordes más externos del sistema, y se desconocen la métrica derivativa y los aspectos más profundos de su arquitectura. La brecha entre la ocultación del código fuente y el derecho fundamental de participación informada hace necesaria una ingeniería computacional inversa con condiciones para desarrollar tecnologías de interfaz a través del análisis de externalidades que actúen en favor del conocimiento. No hay garantías de participación de sindicatos e instancias representativas propias de los actores alcanzados por contratos masivos digitales desde plataformas tecnológicas de intermediación de mano de obra, cosa que contrasta con el marco de diálogo social, considerado un derecho fundamental por la oit. Todo esto desafía los debates epistemológicos de la matemática computacional y su interfaz con el derecho, y exige que se ahonde en el estudio de las múltiples funcionalidades de los softwares, las interfaces de los sistemas y aplicaciones con las relaciones sociales y económicas que aquellas modelan a través de complejas cadenas lógicas de algoritmos secuenciales y relacionales. Andrew Feenberg concluye que la racionalidad prevalente en el capitalismo favorece la hegemonía de las creencias y prácticas de las clases dominantes, al tiempo que mantiene cierta capacidad de producción de conocimiento sobre la realidad17. El perfeccionamiento de los sistemas se orienta, en rigor, exclusivamente a calibrar mejor la producción capitalista (en sus versiones reinventadas) en función de la acumulación de ganancia.

Los resultados económicos del trabajo humano no se someten a repartos y divisiones, como tanto pregona la ya desgastada expresión de la economía digital. Sus beneficios raramente se reparten de manera democrática. Al fin y al cabo, en el modo de producción capitalista todo se reduce a mercancía; como nos alertaba Karl Marx, nada escapa a la forma mercancía, ni siquiera la propiedad destinada a su uso18. La matemática computacional de estas estructuras tecnológicas desafía, por ende, la codificación jurídica y establece una relación de subordinación ciega del trabajo al capital, profundizando exponencialmente la alienación típica del modo de producción capitalista y las distancias entre Norte y Sur. La imposición de ese horizonte se funda asimismo en el hecho de que los códigos fuente encuentran protección en los códigos jurídicos como espectro del capital, normalmente ocultos mediante el secreto industrial, amparándose en razones de protección ante la competencia. Los especialistas de áreas tecnológicas afirman, aun así, que no existen grandes secretos tecnológicos en las aplicaciones y que estas pueden ser reproducibles con relativa facilidad mediante técnicas de ingeniería computacional inversa, lo que muestra que se trata de un secreto diseñado para apartar al resto de los actores participantes, de manera consciente o inconsciente, en las interacciones contractuales de estas estructuras tecnológicas, y no para la protección de una empresa frente a la competencia.

Paradójicamente, en el terreno de las disputas judiciales y en arbitrajes internacionales respecto de protección de software –sobre todo, en los conflictos de copyright y explotación comercial de modelos de utilidades–, los recursos de ingeniería computacional inversa son ampliamente utilizados como prueba pericial técnica. Así también los sistemas y artefactos tecnológicos pueden volverse mecanismos de resistencia en un escenario de sobreexplotación del trabajo en el capitalismo dependiente y pueden romper con patrones de estructuras tecnológicas del Norte global no siempre aptas para el reconocimiento de las singulares formas de opresión del eje Sur global en las relaciones de trabajo19.

En conclusión: los métodos relativos a la ingeniería inversa de programas computacionales, la descompilación y el desmontaje, nos llevan a revaluar sus funcionalidades y, partiendo de reproducciones del código del programa original, a pensarlos al revés, subordinando los modelos y utilidades a nuevos usos sociales de mayor beneficio para los más vulnerables.


Nota: traducción del portugués de Cristian De Nápoli.

  • 1.

    Evitamos utilizar la expresión «inteligencia artificial» por su ambigüedad. Por su etimología, la palabra «inteligencia» remite a encontrarse «entre lecturas» o «elecciones». Bajo tal acepción es posible comprender los procesos algorítmicos característicos de la llamada inteligencia artificial débil, pero mantenemos el escepticismo en cuanto a la llamada inteligencia artificial profunda, que jamás podrá ser asimilada a la inteligibilidad humana. Sobre el uso de la inteligencia artificial en el Poder Judicial y la convergencia con la conciencia humana para la efectividad de la justicia, v. Bruno Alves Rodrigues: A inteligência artificial no poder judiciário e A convergência com a consciência para a efetividade da justiça, Thomson Reuters Brasil, San Pablo, 2021.

  • 2.

    Boaventura de Sousa Santos y Maria Paula Meneses (eds.): Epistemologias do Sul, Cortez, San Pablo, 2010. [Hay edición en español: Epistemologías del Sur, Akal, Tres Cantos, 2014].

  • 3.

    La propiedad intelectual tecnológica cuenta con algunas instituciones vinculadas al sistema de las Naciones Unidas (Organización Mundial de Propiedad Intelectual, ompi, y Organización Mundial del Comercio, OMC) centradas en la elaboración de normas y la solución de conflictos por arbitraje –aunque suscriban también discusiones sobre su utilidad–, por estar más orientadas hacia los intereses privados que hacia el desarrollo científico y tecnológico para el bien común.

  • 4.

    Alain Supiot: La gouvernance par les nombres. Cours au Collège de France (2012-2014), Fayard / Institut d’Études Avancées de Nantes, París-Nantes, 2015.

  • 5.

    R. Dagnino: Neutralidade da ciência e determinismo tecnológico. Um debate sobre a tecnociência, Unicamp, Campinas, 2008.

  • 6.

    R. Dagnino: Tecnologia social: contribuições conceituais e metodológicas, EDUEPB, Campina Grande, 2014.

  • 7.

    En Brasil, la situación en este aspecto se agravó sensiblemente tras la decisión del Supremo Tribunal Federal en su mandato 618-mg. Esa decisión impone una interpretación derogatoria de la eficacia de la protección constitucional del empleo frente a la automatización y no impide alteraciones, aun si afectan al personal, como producto de las innovaciones tecnológicas.

  • 8.

    Jesus Antônio Velho (ed.): Tratado de computação forense, Millennium, Campinas, 2016.

  • 9.

    D. Farmer y W. Venema: Perícia forense computacional. Teoria e prática aplicada, Pearson Prentice Hall, San Pablo, 2007.

  • 10.

    Andrew Honig y Michael Sikorski señalan técnicas de ingeniería computacional inversa que permiten: (a) un análisis estático básico, donde la aplicación es examinada sin ser ejecutada y sin la visualización de sus instrucciones; (b) un análisis dinámico básico, en el cual se ejecuta la aplicación y se observan sus comportamientos externos en el sistema; (c) un análisis estático avanzado, que implica analizar la aplicación en un disassembler, estudiando las instrucciones que realiza el software; (d) un análisis dinámico avanzado, donde se utiliza un debugger para observar el funcionamiento interno del software analizado, durante el tiempo de la ejecución. M. Sikorski y A. Honig: Practical Malware Analysis: The Hands-On Guide to Dissecting Malicious Software, No Starch Press, San Francisco, 2012.

  • 11.

    Ricardo Antunes: O privilégio da servidão. O novo proletariado de serviços na era digital, Boitempo, San Pablo, 2018.

  • 12.

    Los sistemas tecnológicos de información, entre ellos los hegemónicos utilizados en metabuscadores, provocan disrupciones espaciales y operan una obtención, un almacenamiento y un uso de datos contrarios a la privacidad e intimidad. En el ámbito de la Unión Europea (Reglamento 2016/679), está restringido el uso de sistemas con marcos regulatorios fijados por países que no proveen un nivel adecuado de protección de datos. En otras regiones, la vigilancia de datos se impone desde ciertos sistemas gubernamentales, mayormente de Estados Unidos, lo que hace que casi todos los sistemas operativos estén sometidos a telemetrías por un órgano vinculado al Departamento de Estado de ese país.

  • 13.

    Ruy Mauro Marini: Dialéctica de la dependencia, Era, Ciudad de México, 1990.

  • 14.

    I. Mészáros: Para além do capital, Boitempo, San Pablo, 2002. [Hay edición en español: Más allá del capital, Pasado y Presente / Vicepresidencia del Estado Plurinacional de Bolivia, La Paz, 2010].

  • 15.

    Ajay Agrawal, Joshua Gans y Avi Goldfarb: Máquinas preditivas. A simples economia da inteligência artificial, Alta Books, Río de Janeiro, 2019.

  • 16.

    Ifeoma Ajunwa: «The Paradox of Automation as Anti-Bias Intervention» en Cardozo Law Review vol. 41 No 5, 2020.

  • 17.

    A. Freenberg: Critical Theory of Technology, Oxford UP, Nueva York, 1991.

  • 18.

    K. Marx: Últimos escritos econômicos, Boitempo, San Pablo, 2020.

  • 19.

    D. Muradas y Flávia Souza Máximo Pereira: «Decolonialidade do saber e direito do trabalho brasileiro: sujeições interseccionais contemporâneas» en Direito e Práxis vol. 9 No 4, 2018.

Este artículo es copia fiel del publicado en la revista Nueva Sociedad 294, Julio - Agosto 2021, ISSN: 0251-3552


Newsletter

Suscribase al newsletter