jueves, 18 de julio de 2024

PROCEDIMIENTO E INTELIGENCIA ARTIFICIAL Y ADVERTENCIA


Si gana Lijo, pierde la República
Beltrán Gambier

Ariel Lijo...Alfredo Sábat
El procedimiento fijado por el decreto 222/2003 tiene por objeto establecer una serie de reglas y pasos para elegir mejor a los jueces de la Corte Suprema de Justicia de la Nación. No es infalible, claro, pero es una buena herramienta cívica e institucional. Lo que no se puede es hacer como que se cumple y, en realidad, no cumplirlo cabalmente. Es lo que está ocurriendo. Veamos.
Dice el artículo 2 del decreto 222/2003: “Déjase establecida como finalidad última de los procedimientos adoptados, la preselección de candidatos para la cobertura de vacantes en la Corte Suprema de Justicia de la Nación en un marco de prudencial respeto al buen nombre y honor de los propuestos, la correcta valoración de sus aptitudes morales, su idoneidad técnica y jurídica, su trayectoria y su compromiso con la defensa de los derechos humanos y los valores democráticos que lo hagan merecedor de tan importante función”.
Esa norma, que integra un régimen plenamente vigente, obligaba al Poder Ejecutivo ya al inicio del camino. En efecto, el Presidente no podía proponer a cualquiera, debía proponer a uno o más candidatos con aptitudes morales, idoneidad técnica y jurídica, y con una trayectoria y un compromiso con la defensa de los derechos humanos y los valores democráticos.
Desde el inicio de la postulación de Ariel Lijo nacieron las críticas fundadas en que no se presentaban las pautas indicadas en el párrafo anterior. Así, decenas de organizaciones de la sociedad civil, de las más variadas extracciones, se manifestaron en contra de esa postulación a través de comunicados y declaraciones. Un verdadero e histórico clamor. Eran conceptualmente duros, pero breves como tiene que ser ese tipo de comunicados. Pero más tarde, siguiendo la metodología del decreto, se abrió un período de impugnaciones en el que esas mismas organizaciones, otras nuevas, y numerosos ciudadanos a título individual, lanzaron sus críticas contra la postulación, esta vez de manera extensa y detallada. Algunas, las menos, opinaron a favor.
Con todo eso, el Presidente debía decidir si continuaba con su propuesta o no. Pero no tenía plena libertad para hacerlo. El decreto 222/2003 le exigía, y le exige, tratar fundadamente esas críticas. Así, dice el art. 9 del decreto 222/2003: “En un plazo que no deberá superar los quince (15) días a contar desde el vencimiento del establecido para la presentación de las posturas u observaciones, haciendo mérito de las razones que abonaron la decisión tomada, el Poder Ejecutivo Nacional dispondrá sobre la elevación o no de la propuesta respectiva”.
Y eso no ocurrió en absoluto. No se hizo el mérito exigido. ¿De dónde surge que no ocurrió? Del propio mensaje del presidente de la Nación al Honorable Senado de la Nación del 27 de mayo de 2024 publicado en los medios. Hay que leerlo para comprobar que allí se soslaya el tratamiento de las referidas críticas. Sin más. Eso torna plenamente antijurídica la decisión del Presidente de seguir adelante. ¿Por qué? Porque ese soslayamiento implica nada menos que la indefensión de todos aquellos que, con responsabilidad cívica, cumplieron con su deber de participar con argumentos en un procedimiento garantístico de noble finalidad.
Y este desajuste con la legalidad –violación a la garantía constitucional de defensa– no se corrige con la intervención del Senado de la Nación, que es de naturaleza política. Es menester, por lo tanto, que intervenga de manera urgente la Justicia y se obligue al Poder Ejecutivo a tratar las impugnaciones planteadas de manera fundada, como lo exige el decreto en cuestión.
Una vez cumplido ese paso –con una intervención judicial que retrotraiga el proceso–, si el Presidente lograra fundar la conveniencia de su candidatura, cosa que me parece muy difícil, sería el turno del Senado de la Nación. Al menos todos y cada uno de los que participaron del procedimiento tienen aptitud procesal para promover una acción judicial con este tipo de planteo.
Estamos ante la necesidad del respeto a la novedosa legalidad traída por el decreto 222/2003. Hay “caso” o “caso judicial” y no es un supuesto de la revisión de la “oportunidad, mérito o conveniencia” de una decisión, como alguno podría postular. Si bien debería juzgarse, ahora, la violación a la defensa de los impugnantes, es, también y de un modo indirecto, una revisión de legalidad toda vez que la “idoneidad” del candidato –que es lo que está en juego– es un concepto jurídico indeterminado, como lo es el de “necesidad y urgencia” o el de “utilidad pública”; es decir: materia revisable –según la jurisprudencia– sin vulnerar, por supuesto, la separación de poderes. Digo, finalmente, que tampoco es un acto que por su naturaleza especial esté exento de control.
¿Es el decreto 222/2003 letra muerta? No lo es. Si el Presidente dijera –en términos metafóricos– “no tengo en cuenta vuestra opinión negativa sobre Ariel Lijo, ya que creo que es buen candidato y lo someto a la valoración del Senado” (como parece decir el Presidente), nos tocará enmarcar nuestras críticas y dejarlas en un museo cívico para terminar afirmando, pues, que el decreto 222/2003 es letra muerta.
El clamor en contra de la nominación de Lijo es tan importante y generalizado, que es de esperar que se intente –por parte de ciudadanos y organizaciones– frenar este proceso antes de que el Senado trate su pliego. Debe corregirse la “ilegalidad manifiesta” que supone la continuidad del trámite legislativo.
¿Se puede perder el pleito? Sí, pero es peor no plantearlo. Si gana Lijo, pierde la República.

&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&

Taiwán y una gran oportunidad para la Argentina
Florencia Miao-hung Hsie Embajadora y directora general de la Oficina Comercial y Cultural de Taipéi en la Argentina
En junio, la Exposición Internacional de Informática de Taipéi (Computex Taipei) reunió a grandes líderes del sector tecnológico. Centrada en la temática “Conectar con la inteligencia artificial (IA)”, el evento contó con la participación de gigantes tecnológicos como AMD, Arm Holdings, Nvidia, Intel y Qualcomm. No es casualidad que todas estas empresas hayan elegido participar en Computex: en el contexto internacional actual, Taiwán se erige como un polo tecnológico para el desarrollo de la IA, que trae consigo un panorama futuro prometedor.
Gracias al desarrollo de su industria de semiconductores y de tecnologías de la información y comunicación (TIC), así como la capacidad de adaptación de sus empresas locales, Taiwán desempeña un rol clave en la construcción de la infraestructura global de la IA. Su papel fundamental fue ratificado por Jensen Huang, CEO de Nvidia, quien destacó la contribución de Taiwán en la era IA como un “héroe sin capa y pilar del mundo”. Asimismo, Lisa Su, CEO de AMD, elogió la eficacia informática de alta gama de Taiwán, y destacó al exclusivo sistema tecnológico taiwanés como un elemento crucial para el éxito de AMD.
En este sentido, el avance y desarrollo de la industria de la IA en Taiwán se plasma en la prosperila dad de la región del Indo-Pacífico. Por consiguiente, para la comunidad internacional. En un contexto de entornos volátiles y cambiantes, la cooperación internacional resulta crucial para impulsar el desarrollo global. Taiwán, país libre y democrático, es un socio confiable dispuesto a colaborar con los países que comparten los mismos valores, en pos del beneficio y la prosperidad global.
No caben dudas de que la IA es el futuro: el propio presidente de la Argentina, Javier Milei, ha manifestado su intención de constituir al país en un polo tecnológico de la IA, y se ha reunido con líderes y representantes de las empresas más prometedoras para fomentar inversión y el desarrollo de esta industria en el país. En este sentido, se podría aprovechar la complementariedad existente y cooperar con Taiwán para abrir nuevos nichos de colaboración.
La inteligencia artificial llegó para quedarse. Su adecuada implementación por parte de Estados libres y democráticos trae un futuro de infinitas posibilidades. Taiwán es un socio benevolente y sólido para la Argentina; unámonos para aprovechar las oportunidades en beneficio de ambos pueblos.

&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&


La peligrosa carrera por el desarrollo de la IA no tiene pausa ni límites
Aun la propia industria señala los graves riesgos que plantea la inteligencia artificial, que incluyen el afianzamiento de las desigualdades, la manipulación y la desinformación
Fernando Tomeo
Las advertencias sobre el peligro de la Inteligencia artificial...Alfredo Sábat

“Yo te avisé y vos no me escuchaste”, refiere uno de los grandes éxitos de Los Fabulosos Cadillacs. La canción alude a aquellos casos en que somos advertidos sobre alguna situación o circunstancia que “se nos viene encima” pero que decidimos ignorar mirando para otro lado o, simplemente, no prestando atención, bajo la premisa “siga el baile”, otro clásico, pero por el gran Alberto Castillo.
La idea de advertir y no ser escuchados reconoce antecedentes milenarios. La prédica desierta supone la previa intención de advertir sobre situaciones puntuales a quien no atiende razones, no le interesa atenderlas o es incapaz de entender lo que se le está explicando.
Este supuesto de anunciación desierta ha adquirido plena vigencia en la actualidad con el advenimiento de la inteligencia artificial generativa (IAG) y el ChatGPT (de la empresa OpenAI), en sus distintas versiones, junto a similares proyectos desarrollados, entre otros, por Google (Gemini) y Apple (Apple Intelligence), que recientemente anunció un acuerdo con OpenAI para usar su tecnología en los productos de la manzana. La realidad demuestra que la carrera de la industria tecnológica por el desarrollo de sistemas de inteligencia artificial no tiene pausa ni límites, aunque nadie sepa (ni sus mismos desarrolladores) cómo termina la película: lo relevante es tener algún papel estelar.
En mayo, 5 exempleados de OpenAI y 6 trabajadores (anónimos) hicieron pública una carta donde destacaron los graves riesgos que plantea esta tecnología, que van desde el afianzamiento de las desigualdades existentes, la manipulación y desinformación, hasta la pérdida del control de los sistemas autónomos que podrían resultar en la extinción de la raza humana. En la carta se menciona, entre otras cosas, que las empresas que desarrollan sistemas de inteligencia artificial poseen información no pública sobre las capacidades y limitaciones de los sistemas en desarrollo, la adecuación de sus medidas de protección y los niveles de riesgo comprometidos, destacando que muchos de esos riesgos no están regulados, como que tampoco existe una supervisión gubernamental efectiva sobre los jugadores del sector.
La carta requiere que las empresas en cuestión se comprometan con distintos principios que permitan a sus empleados hacer públicas, a la sociedad civil, sus preocupaciones sobre los riesgos existentes, sin quedar alcanzados por los acuerdos de confidencialidad que les impiden dar luz verde a sus opiniones, poniendo en juego sus puestos de trabajo.
Similares advertencias –aun más preocupantes– han sido formuladas antes, aunque parece que todos estuviésemos pasando por una etapa de sordera. En marzo de 2023, Elon Musk, junto a miles de expertos y académicos, solicitaron públicamente poner una pausa de 6 meses al entrenamiento y desarrollo de los sistemas de inteligencia artificial, mientras que en mayo del mismo año, 350 personalidades de la academia y de la industria suscribieron un manifiesto donde pedían “mitigar el riesgo de extinción” de la raza humana.
Es evidente que estamos en presencia de un riesgo tangible que se traduce en el desarrollo de máquinas alimentadas de inteligencia artificial, sin control, que puedan llegar a tomar decisiones equivocadas (o sesgadas) con alto impacto poblacional que no solo comprometa la seguridad de la ciudadanía sino otros tantos aspectos, como la educación.
A todo eso se sumó que, en marzo, la Agencia Española de Protección de Datos ordenó a Tools for Humanity Corporation que ponga fin a la recolección y el tratamiento de datos personales que realizaba en territorio español en el marco de su proyecto Worldcoin. Recordemos que el proyecto Worldcoin, que ha operado (y seguiría operando) en la Argentina, escaneaba el iris de voluntarios a cambio de una compensación económica en criptomonedas, lo que ha permitido a dicha empresa acceder a datos personales biométricos que podrían usarse para rastrear personas y suplantar identidad en sistemas de autenticación que requieren reconocimiento de iris, tales como instalaciones, aplicaciones y/o dispositivos personales. ¿Sería utilizada la información biométrica para alimentar IAG? No cabe duda de que la respuesta es afirmativa.
Por otro lado, Meta, empresa dueña de las redes sociales Facebook e Instagram, anunció que a partir del 26 de junio usaría contenido compartido por sus usuarios –publicaciones, fotografías y videos– para entrenar sus modelos de IAG, salvo que estos se opongan en forma expresa.
Unos días antes de la fecha indicada, dicha compañía refirió que suspendería, por un tiempo, el mencionado proyecto en Europa, como consecuencia de la intervención de la Comisión de Protección de Datos de Irlanda (DPC) ante distintos reclamos formulados por el grupo activista Centro Europeo de Derechos Digitales (NOYB). No podemos afirmar que dicha suspensión también operará fuera de territorio europeo. En el nivel regional, la Autoridad Nacional de Protección de Datos de Brasil ordenó a Meta que ponga fin al procesamiento de datos personales de sus ciudadanos para entrenar su inteligencia artificial, mediante una medida cautelar dictada el 1º de julio, con importantes multas para el caso de incumplimiento. Aun el Papa, en la Cumbre del G-7, advirtió enfáticamente sobre los riesgos de la inteligencia artificial, calificándola como una herramienta temible, al decir: “Necesitamos garantizar y salvaguardar un espacio para un control humano adecuado sobre las decisiones tomadas por los programas de inteligencia artificial: la dignidad humana misma depende de ello”.
Ante las mencionadas situaciones que suponen el uso de datos personales para alimentar una industria riesgosa, y la clara advertencia de académicos, expertos y hasta del Papa, la pregunta que se impone es la siguiente: ¿qué están haciendo los legisladores para poner reglas de juego a este negocio? ¿Es posible o viable un límite por medio de la legislación? La Unión Europea tomó cartas en el asunto a través de la sanción de la ley de inteligencia artificial (Artificial Intelligent Act o AI Act), vía reglamento 2024/1689 (Reglamento de Inteligencia Artificial de la Unión Europea), publicado el 12 de julio en el Diario Oficial de la Unión Europea, que constituye el primer ordenamiento jurídico integral sobre la materia, y persigue regular la inteligencia artificial de manera global, con un enfoque en sus distintos niveles de riesgo.
En la Argentina no contamos con ninguna normativa que regule la inteligencia artificial; no obstante, el 10 de junio el diputado nacional Juan Brügge presentó un proyecto de ley en la Cámara de Diputados de la Nación (3003-D-2024), con el título: “Régimen jurídico aplicable para el uso responsable de la inteligencia artificial en la República Argentina”, que persigue establecer un marco legal para el uso ético de la IA. El proyecto no ha sido tratado todavía.
Entretanto, en otros países de América Latina, existen distintos intentos legislativos en etapa de desarrollo. No obstante estos antecedentes, si bien no parece viable establecer un límite vía regulación al desarrollo descontrolado de esta tecnología que avanza a toda velocidad, la realidad es que resulta absolutamente necesario establecer pautas regulatorias claras en el nivel internacional, con normas integradas, incluso, a través de tratados internacionales. Nadie desconoce las promesas de bonanzas y avances que ofrece la IA, pero no podemos dejar de remarcar que, sin límites éticos y mínima supervisión humana y reguladora, sus resultados podrán generar graves daños a la humanidad. Para tener en cuenta y recordar: “Yo te avisé y vos no me escuchaste”.

Abogado y consultor en Derecho Digital, Privacidad y Datos Personales; profesor de la Facultad de Derecho de la UBA y de la Universidad Austral; director del programa “Derecho al olvido” de la Universidad Austral


http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.