Martes, 05 Octubre 2021 05:40

Sobreinformación: atrapadas en la red

Sobreinformación: atrapadas en la red

La lista de cosas terribles que deberíamos evitar, que no deberíamos aceptar, que es vergonzoso que ocurran en el siglo XXI, es tan larga que con ella podríamos llenar páginas sin fin.

 

Era una sospecha, pero ya es una certeza: detrás de la proliferación infinita de información hay una estrategia de los poderosos (o sea, del poder económico). La cantidad de datos con que nos bombardean a diario es de un calibre tal que resulta imposible de manejar. Miles de noticias, declaraciones grandilocuentes, sucesos increíbles, acciones a favor de esto o en contra de aquello se amontonan a nuestro alrededor como montañas de residuos no biodegradables, hasta ahogarnos. En los telediarios, mientras el locutor cuenta las noticias, nos pasan sin cesar en la parte inferior de la pantalla docenas de más datos e informaciones. A la vez, las imágenes de otras miles de cosas ocurren en el mundo se suceden en la pantalla situada detrás. En el estudio de televisión, todo son luces y brillos que giran y se mueven como en una discoteca. En la radio, cada mañana nos leen acelerados el resumen de las noticias del día con un fondo musical como de vuelta ciclista. Y mientras tomamos el café, nos gritan que contratemos un seguro más barato o nos compremos un coche nuevo; un coche en el que, con un poco de mala suerte, nos mataremos un día al ir a trabajar. Si además tenemos el móvil a mano, lo que no es raro, podremos acceder a la vez a más información todavía: mensajes, avisos, notas, recordatorios.

Ya es posible acelerar las grabaciones de las notas de voz. A duras penas daremos luego con un hueco en la agenda semanal para meter una clase de yoga, de chi-kung o de meditación en la que resetear la mente exhausta e intentar reaprender a fijar la atención. Y nos extraña que haya estudiantes universitarios incapaces de leer un libro entero (¡uno!). Dentro de poco ya no llamará la atención, serán sus profesoras quienes no podrán hacerlo. En educación secundaria no son capaces de atender una explicación oral que dure más de 10 minutos. Enseguida empiezan a moverse nerviosos en la silla buscando desesperadamente, como yonkis, nuevos estímulos, nuevos datos que añadir a su sobrecargado cerebro. Decía Agustín de Hipona que, así como el cuerpo necesita comida, también el alma necesita alimentarse con sabiduría. Pero la comida rápida es comida basura, no alimenta, nos envenena. El exceso de información es la basura del alma, nos pudre por dentro. Y el veneno nos va matando lentamente, sin que nos demos cuenta.

Un ejemplo concreto: el movimiento laicista difundimos a los cuatro vientos siempre que podemos el disparate que supone la presencia de una asignatura confesional en el currículo de enseñanza primaria y secundaria, y los vergonzosos privilegios de los que disfruta el catolicismo en ese ámbito. Cualquier persona sensata que nos escucha, creyente o no, practicante o no, admite enseguida que es un atropello, un escándalo, una injusticia. Pero, ¿de qué sirve? ¿Qué podemos hacer además de escandalizarnos? ¿Cómo movilizarnos para denunciarlo y responder al atropello? ¿Cómo evitarlo?

Y es que —no quiero compararlos— pero ahí están la subida de la luz; y los refugiados muertos en el Mediterráneo; y los desahucios que siguen; y las palizas y asesinatos a gays o a trans; y la destrucción de la sanidad pública; y la privatización de los servicios esenciales; y las mujeres asesinadas, y... La lista de cosas terribles que deberíamos evitar, que no deberíamos aceptar, que es vergonzoso que ocurran en el siglo XXI, es tan larga que con ella podríamos llenar páginas sin fin. Miles de páginas con datos, análisis, reflexiones, valoraciones. No sirven de nada. Son demasiadas cosas. No podemos metabolizar tanto dato. Nos atascamos. Para seguir estando informadas tenemos que dejarlo todo, dejar de pensar, dejar de vivir. Al dejar de pensar, no podemos decidir qué hacer, cómo, cuándo, con quién. La corriente nos lleva. Sobrecarga de información, Infoxicación, son términos que ya están en Wikipedia, señal de que existen (por supuesto, existen las palabras, pero también la realidad que nombran). Marina Garcés se ha referido a la imposibilidad de manejar las toneladas de conocimiento de que disponemos hoy. Lo ha sintetizado en una frase certera: “Lo sabemos todo, pero no podemos nada” (en Nueva Ilustración Radical, Anagrama).

Desbordadas de datos, sobrados de análisis, colapsado el sistema de drenaje del espíritu, nos vaciamos, supuestamente, en Twitter, Instagram o Facebook. Pero más que vaciar y limpiar, lo que hacemos es volvernos a cargar de nuevos datos. Y exhibirnos. Mostramos nuestra actitud progresista. Nos enfadamos y nos ocupamos en propagar nuestro enfado. Nos rasgamos las vestiduras, enfáticamente, que quede claro. Mostramos, en voz alta, ante el mundo, la más firme solidaridad con esta o con aquella causa justa. Escribimos artículos (este incluido), posts, blogs, libros, indignadas, exponiendo con rotundidad a razón que tenemos contra esto o a favor de aquello. “Yo apoyo esta causa”, compartimos la foto en la que nos mostramos risueños, o serias y responsables, pero siempre atractivos, altivas, y poco a poco, el mensaje se va deslizando hacia un lado y, sin darnos cuenta, el énfasis se traslada de la causa a quien la apoya. A los demás les gusta que yo apoye esta causa y me lo comunican (a mí y, de paso, al mundo entero). Y a mí me gusta que a ellos les guste. Y así durante un buen rato, como el eco de un pozo sin fondo. Millones de bits de aquí para allá para que todo siga en su sitio. Esto no se transforma y aquello nunca llega. Y siguen ocurriendo cosas que no deberían ocurrir, permanentemente, nosotras conscientes e informadas.

Nos dijeron que la información era poder y nos lanzamos frenéticas a su búsqueda. Era una falsedad paralela a la que rezaba ‘una imagen vale más que mil palabras’: nos costó percatarnos que sí, sirve, pero para mentir más que mil palabras. Tampoco vimos que la sobreinformación sólo trae incapacidad, angustia y ansiedad. Que la sobreinformación está más cerca de la desinformación que de la información. Y que va de la mano de la híper-conexión. Todo parece ser parte del mismo plan. Conectar con tres, cuatro, veinte, cuarenta, cien personas puede hacer comunidad. Estar permanentemente conectados con miles de personas que no conocemos ni nos interesan no mejora la realidad, no alivia ninguna pena, no proporciona ninguna alegría perdurable. Crea parálisis, lo único permanente. 

Red es malla, tejido, protección. La red de amigas y allegados nos protege como una tela mullida y tranquilizadora, amortigua las caídas como una red flexible y blanda. Nos conecta con personas que conocemos y queremos. Pero red es también trampa, urdimbre, trama, engaño. Pusieron el adjetivo “sociales”  y en sus redes caímos como chinches, una detrás de otro. Caímos en la trampa, animalitos atrapados. Y ahí estamos, en el cepo, prendidas en la malla, agitando los brazos para que nos vean los falsos amigos. La combinación letal de narcisismo indignado y sobreactuado y de exceso de información inmanejable nos ha colocado en la senda de acabar con toda esperanza. ¿Tiene remedio? ¿Seremos capaces de salir de la rueda de hámster? Decidme cómo.

 

5 oct 2021 06:00

Publicado enCultura
La democracia en la era de la inteligencia artificial

En vista de la creciente expansión de la inteligencia artificial en las sociedades modernas, resulta necesario discutir cómo puede servir para mantener y fortalecer el Estado de derecho, la democracia y los derechos humanos, en lugar de contribuir a su debilitamiento. Eso dependerá en gran medida de las formas de regulación elegidas.

 

Así como debe hacerse una clara diferenciación entre internet como tal, una estructura tecnológica que conecta personas e información, y lo que sucede en internet, también debe hacerse una diferenciación entre el potencial teóricamente positivo de la inteligencia artificial y los usos para los cuales se la desarrolla actualmente. Por lo tanto, un análisis diferenciado debe ir más allá de una mera enumeración de las ventajas de la internet gratuita o los beneficios teóricos de la inteligencia artificial y tener en cuenta los efectos reales de las nuevas tecnologías digitales y modelos de negocio en el área de internet e inteligencia artificial.

Por tanto, la influencia de las empresas vinculadas a la inteligencia artificial no solo se limita a la tecnología subyacente, sino que también atraviesa el ámbito social. Es por ello que la concentración de poder tecnológico, económico y político en manos de los «cinco temibles» (Amazon, Apple, Facebook, Google, Microsoft), que ocupan el centro de la escena del desarrollo y uso comercial de la inteligencia artificial, tiene una especial importancia en este contexto.

Ambición de poder

Las megacorporaciones digitales no solo son capaces de ejercer una influencia política y social masiva, tienen también los recursos financieros para comprar nuevos desarrollos y startups en el campo de la inteligencia artificial y en todas las demás áreas relevantes para su modelo de negocio, y eso es exactamente lo que hacen. Su pretensión de concentrar poderío y controlar pone en desventaja al cuarto poder: el periodismo clásico, que es tan importante para la democracia. Su selectivo negocio de publicidad priva al periodismo de su sustento. Es cierto que no son la única razón de la muerte de los periódicos y del retroceso del periodismo clásico tanto en Europa como en Estados Unidos, pero son uno de los principales factores. Si bien es posible que algunas de sus investigaciones fundamentales sobre inteligencia artificial sean de acceso público, el trabajo mucho más elaborado sobre aplicaciones comerciales de inteligencia artificial se realiza en secreto. Los presupuestos en esta área superan con creces la inversión pública de muchos países. Esta acumulación de poder en manos de unos pocos debe ser observada de modo abarcativo: incluye el poder del dinero, el poder sobre la infraestructura democrática y el discurso público, el poder sobre los individuos a través de la elaboración de perfiles precisos y la supremacía en el campo de la inteligencia artificial. Los gigantes de internet han tenido logros sin precedentes como empresas: buena parte de su producción no está regulada, son dominantes en su mercado y son las empresas más rentables en la bolsa de valores. Tienen una inmensa influencia en la formación de opinión y en la política, al tiempo que han conservado su popularidad entre el público.

La cultura predominante de Silicon Valley sigue la «ideología californiana». Sus raíces se remontan al movimiento juvenil de la década de 1960. Parte de las metas de este movimiento era liberarse del dominio político de Washington y del dominio tecnológico de ibm, la empresa de tecnología líder en ese entonces. En esencia, había un gran anhelo de libertad personal y de capacidad individual para actuar como efecto de la descentralización. El desarrollo de la primera computadora personal (pc) y el multipremiado spot publicitario de la Apple Macintosh realizado por el reconocido director Ridley Scott, en el que una joven se libera del «Gran Hermano» («Y verás por qué 1984 no será como 1984»), son una expresión de esta búsqueda de libertad individual y autorrealización, lejos de los imperativos sociales y de la dependencia del Estado. En su famosa «Declaración de independencia del ciberespacio», John Perry Barlow, activista estadounidense por los derechos civiles y compositor de la banda de rock Grateful Dead, rechazó cualquier regulación legal de internet. Alegaba que las formas tradicionales de gobierno, que –diríamos– pueden existir únicamente sobre la base de la ley y el orden, «no tienen soberanía donde nosotros (los actores del ciberespacio) nos reunimos». No fue casualidad que esta declaración se hiciera pública en 1996 en el marco del Foro Económico Mundial de Davos.

La lucha contra las leyes

Esta idea también fue retomada en el discurso jurídico. David R. Johnson y David G. Post, jurisconsultos especializados en espacio digital, afirmaron que si los usuarios quieren establecer reglas en internet y estas no dañan a los no usuarios, entonces «la ley del mundo físico debería ser revocada en favor de esta forma de autorregulación». Pero no fue solo la «ideología californiana» lo que alentó el desacato de la ley. La enseñanza de innovaciones disruptivas, muy difundida en las escuelas de negocios, condujo en algún momento a una comprensión de la ley como algo disruptivo. Esta lucha de las empresas tecnológicas y los activistas contra las nuevas leyes, que siguen poniendo la tecnología por encima de la democracia, continúa hasta el día de hoy.

Por ejemplo, Google insistió en que solo se le aplique la ley de California, ya que las búsquedas hechas desde Europa son respondidas desde los servidores californianos. Es más, se argumentó que los resultados de las búsquedas no deberían clasificarse como «tratamiento de datos». La fundamentación: Google no es responsable de los resultados, ya que son producto del algoritmo automatizado y no pueden ser controlados por la empresa. Aquí es donde se hacen evidentes la cosmovisión de la empresa y la manera de concebir el Estado de derecho: en primer lugar, la automatización en forma de algoritmo como servicio protege a la empresa mediadora de cualquier responsabilidad legal. Visto así, el sueño de John Perry Barlow se haría realidad: en la era digital, la tecnología tendría prioridad sobre la jurisprudencia. En segundo lugar, si existiera cualquier forma de vínculo legal, este solo podría existir en relación con un orden global, presumiblemente dominado por la ley estadounidense y administrado por jueces estadounidenses. Este escenario sería ideal para Google. Los costos se reducirían considerablemente, incluso si la empresa operara en diferentes jurisdicciones. Esto estaría totalmente en línea con la idea de construir una única estructura global de internet que no esté dividida en diferentes jurisdicciones o fragmentada por normas nacionales y que sea muy difícil de atacar legalmente para ciudadanos no estadounidenses.

En este contexto, la reacción del Tribunal de Justicia de la Unión Europea (tjue), generalmente entendida como el «retorno de la ley», fue positiva: el Tribunal respondió al argumento de Google manteniéndose en los límites de la cuestión jurídica planteada, pero sin perder de vista las implicaciones más amplias de esta cuestión. Al final, los reclamos de Google fueron rechazados y así se protegieron los derechos fundamentales de los ciudadanos europeos, sobre la base de la larga tradición europea de protección de la privacidad y protección de datos.

Se puede especular sobre si el argumento de Google de no querer asumir la responsabilidad de los resultados del algoritmo de búsqueda fue usado previendo negar toda responsabilidad por los productos de la futura inteligencia artificial autónoma. En cualquier caso, la respuesta del tjue en este caso fue clara. El presidente ejecutivo de Google se pronuncia actualmente en contra de una regulación general de la inteligencia artificial. Alega que tal regulación obstaculizaría la innovación y que solo puede concebirse una regulación específica de la inteligencia artificial por sectores. Lo que olvida es que se presentó el mismo patrón argumentativo contra el Reglamento General de Protección de Datos de la ue. Pero en vano, y con razón. Porque una normativa puramente sectorial deja sin regular demasiadas aplicaciones de la inteligencia artificial de uso general y, en su complejidad, abruma tanto a quien legisla como a la ciudadanía. Primero necesitamos fundamentos horizontales y generales. Luego se podrán agregar especificaciones por sector.

Cuestiones éticas

Cuando se pone todo esto en contexto, hay un denominador común claro: el intento de evitar responsabilidades, tanto en la legislación como en la jurisprudencia. Y todo surge de un pequeño grupo de empresas que tienen en sus manos un poder sin precedentes. El debate sobre las cuestiones éticas de la inteligencia artificial ya ha expuesto los innumerables desafíos en el ámbito de los derechos fundamentales y el Estado de derecho en este contexto. Es evidente que la inteligencia artificial no puede servir al bien público sin reglas claras. El potencial de la inteligencia artificial obliga a no correr los mismos riesgos que cuando se introdujo internet, que en su momento provocó un vacío legal. Las posibilidades de esta nueva tecnología son tan inmensas que pueden causar estragos y daños irreversibles a la sociedad. Pero mientras que hoy la inteligencia artificial es desarrollada por empresas gigantescas con presupuestos de miles de millones, están regresando los ingenuos argumentos con los que se causó mucho daño en las fases tempranas de internet.

También está claro que los numerosos conflictos de intereses entre empresas y público en relación con la inteligencia artificial no pueden resolverse mediante códigos de ética laxos ni autorregulación. Pero eso no significa que las empresas no deban contribuir a la discusión sobre los desafíos éticos y legales. Muchas de las personas que trabajan para estas empresas tienen las mejores intenciones y pueden hacer importantes aportes al debate. También se puede observar una cierta diferenciación en las actitudes hacia la legislación, según sea el modelo de negocio. Microsoft, que gana mucho dinero por servicios al gobierno y la administración pública, se posiciona de manera más constructiva frente al Estado de derecho y la democracia que otras empresas.

En vista de los enormes presupuestos con los que las megacorporaciones están presentes en muchos ámbitos de la ciencia, la sociedad civil y la opinión pública, es importante que todos quienes participan de la gran discusión sobre la regulación de internet y las nuevas tecnologías ofrezcan información clara sobre relaciones laborales, financiamiento u otras transferencias de servicios y expongan de manera abierta los conflictos de intereses.

Resulta sorprendente hasta qué punto los defensores de una legislación sobre inteligencia artificial estuvieron inicialmente a la defensiva, a pesar de que existe una larga historia de regulaciones legales en el ámbito de la tecnología. Todo arquitecto debe, en el curso de sus estudios universitarios, familiarizarse con las normas de construcción para salvaguardar el interés público, por ejemplo, en la construcción de edificios a prueba de derrumbes. Cada automóvil debe superar varias pruebas para garantizar la seguridad vial. La introducción de los cinturones de seguridad obligatorios, muy resistidos por la industria automotriz y los clubes automovilísticos, finalmente redujo a la mitad la cantidad de muertes en carreteras. Una y otra vez, la sociedad ha visto que, ante la aparición de nuevas tecnologías, es la regulación legal y no la desregulación lo que beneficia al interés público.

Los estímulos para reflexionar sobre la inteligencia artificial no solo han demostrado la multitud de exigencias que las nuevas tecnologías imponen a la legislación, la democracia y los derechos individuales. También han dado lugar a algunos catálogos de reglas éticas en esta área. Por ejemplo, Alan Winfield, profesor de Ética Robótica en la Universidad de Bristol, enumera diez códigos de conducta relacionados con la inteligencia artificial. Las últimas contribuciones a esta lista son la declaración del Grupo de Alto Nivel de la Comisión Europea sobre Inteligencia Artificial Fiable del 18 de abril de 2019 y el informe de la Comisión Alemana de Ética de Datos, presentado el 23 de octubre de 2019. Por tanto, no faltan propuestas sobre principios éticos en el tratamiento de la inteligencia artificial.

Un interrogante es si, después de la experiencia con una internet libre de todo marco legal, nuestra democracia debe volver a exponerse al riesgo de una tecnología omnipresente y decisiva, que puede tener efectos negativos sustanciales si no se la regula. A diferencia de internet, la inteligencia artificial no es producto de unos pocos académicos e idealistas, sino de las poderosísimas empresas de internet que la controlan. Mientras tanto, algunos representantes de estas empresas han llegado recientemente a la misma conclusión y han pedido una legislación sobre inteligencia artificial. También la canciller alemana Angela Merkel ha pedido, durante la conferencia del g-7 en Japón, una regulación legal de la inteligencia artificial, tal como lo es el Reglamento General de Protección de Datos (rgpd). La presidenta de la Comisión Europea, Ursula von der Leyen, dijo, a modo de orientación, que la Comisión Europea presentaría una propuesta para regular la inteligencia artificial dentro de los 100 días posteriores a su asunción, ocurrida el 1o de noviembre de 20191.Todos los argumentos que ahora se utilizan en contra de una ley de inteligencia artificial fueron expuestos antes de 1995, cuando se introdujo la primera directiva de protección de datos personales en la ue. Luego se lo volvió a hacer durante las negociaciones sobre el rgpd en los años 2012 a 2016. Ninguno de los argumentos pudo convencer a los legisladores, y con razón. La afirmación de que la ley no puede seguir el veloz ritmo de desarrollo de la tecnología o los modelos comerciales ha sido refutada por la legislación europea tecnológicamente neutra2. El rgpd es un ejemplo de legislación moderna y tecnológicamente neutra, cuyo significado y relevancia evolucionan a la par del progreso tecnológico, incluida la inteligencia artificial.

Falacia y afirmaciones

La afirmación de que el derecho no es lo suficientemente preciso para regular tecnologías complejas y que una ley que no se adentre absolutamente en los detalles de un código preciso y fácil de usar no puede ser una buena ley constituye otra falacia por parte de los programadores. Por definición, el proceso democrático de elaboración de leyes es un acuerdo. El rgpd se negoció, durante el procedimiento parlamentario, sobre la base de casi 4.000 sugerencias individuales de mejora.

Las leyes (generalmente) las hacen personas razonables y, en caso de un conflicto legal, las interpretan jueces razonables. Este proceso abierto de elaboración de leyes y su posterior interpretación le confiere a la ley flexibilidad para adaptarse a las nuevas circunstancias. Las leyes no tienen que reescribirse una y otra vez como los códigos de programación, que deben ser revisados constantemente desde la versión 1.0 en adelante.

Para decirlo claramente: exigir que una ley sea tan precisa o tan rápidamente actualizable como un código de programación es antidemocrático. Esta exigencia ignora tanto el principio de deliberación y acuerdo en una democracia como el tiempo requerido para el debido proceso.

Por cierto, los grupos de presión no tuvieron ningún problema en evaluar los diversos anteproyectos del rgpd de manera completamente contradictoria: por un lado, como demasiado imprecisos para crear seguridad jurídica y, por el otro, como demasiado detallistas y no suficientemente abiertos y flexibles. Estas críticas encontradas prueban que se deber evitar la ley a toda costa recurriendo al descrédito. La afirmación de que la ley es demasiado inflexible para seguir el ritmo de los desarrollos tecnológicos es básicamente una forma más elegante de parafrasear lo que los neoliberales siempre han dicho: no queremos ninguna obligación legal, porque entonces se nos podrían atribuir responsabilidades legales.

Por lo demás, quienes abogan por una ética de la inteligencia artificial afirman lo mismo. El mundo de los negocios no tiene problemas con los códigos éticos, ya que estos carecen de legitimación democrática y no pueden ser impuestos por fuerza de ley. Pero esta es precisamente la principal ventaja del derecho sobre la ética: con la verosímil amenaza de sanciones anima a los desarrolladores a trabajar en pos del interés público.

Toda tecnología tiene que convivir con la realidad de que la ley le marque límites. Es hora de que Silicon Valley y la industria digital de internet acepten esta necesidad democrática. En un momento en que internet y la inteligencia artificial lo atraviesan todo, la falta de regulación de estas tecnologías claves podría significar el fin de la democracia. Las reglas éticas pueden ser una etapa preliminar y una ayuda orientadora en el camino hacia la legislación y pueden proporcionar contenido para leyes posteriores. Pero no pueden reemplazar la ley, carecen de la legitimidad democrática y la naturaleza vinculante con que los gobiernos y los tribunales pueden hacer cumplir las leyes.

Mark Zuckerberg, fundador de Facebook, y Brad Smith, presidente de Microsoft, han pedido recientemente en textos programáticos una legislación. Pero cuando esto se concreta, las empresas vuelven a lanzar la máquina de lobby contra una legislación eficaz para salvaguardar los datos y la privacidad. Esto se pudo observar hace muy poco en eeuu, tanto en California como en el estado de Washington, donde Microsoft tiene su sede. Además del derecho, también habrá espacio para una ética que vaya más allá de lo que exige la ley: las normas éticas internas de las empresas son buenas si son coherentes con la legislación del país en cuestión y si van más allá, por ejemplo, en lo que respecta al interés público.

Muchas de las cosas buenas que quieren hacer las empresas de Silicon Valley son bienvenidas. Pero esto no puede eximirlas de actuar dentro de la ley y el orden y respetando el proceso democrático. También está completamente claro que el rgpd debe aplicarse siempre que la inteligencia artificial trabaje con datos personales. El rgpd contiene derechos importantes para los consumidores sobre cómo se pueden usar sus datos, y estas reglas también influirán en el diseño de una inteligencia artificial. Los principios de protección de datos del rgpd son una guía importante para la inteligencia artificial, al igual que los límites al tratamiento automatizado de datos y los derechos a la información de los afectados. También está cobrando importancia, en lo que respecta a la inteligencia artificial, la evaluación de las consecuencias del tratamiento de datos personales para las personas afectadas, necesaria en determinadas condiciones. En este aspecto, no se necesita ninguna legislación nueva. Sin embargo, los principios del rgpd con respecto a la inteligencia artificial también deben aplicarse al tratamiento mediante inteligencia artificial de datos que no son personales.

En el discurso democrático, no obstante, es igualmente importante saber si el interlocutor es una persona o una máquina. Si las máquinas participan en el discurso político sin ser identificadas como tales, o si se hacen pasar por personas impunemente, puede producirse una grave distorsión del discurso, lo cual sería insostenible para una democracia. Hasta ahora, ninguna ley nos garantiza que seremos informados si quien entabla un diálogo con nosotros en un contexto político es una máquina.

Sin embargo, un discurso político transparente entre personas es la clave de la democracia. El «principio de materialidad» estipula que se debe, por ley, dejar claro si quien está hablando es una máquina o una persona. Las máquinas no identificadas y, más aún, las máquinas disfrazadas de personas deben ser sancionadas. Quienes controlan la infraestructura del discurso político deben asumir la responsabilidad de establecer una transparencia total. Se necesitan nuevas leyes para ello.

Pero podemos ser optimistas en cuanto a que las regulaciones detalladas de la ue para la lucha contra la discriminación y la protección del consumidor también se aplicarán en el campo de la inteligencia artificial. Teniendo en cuenta esto, es necesario considerar algunos principios básicos de la legislación sobre la inteligencia artificial.

Si bien en Europa la ponderación parlamentaria de la tecnología basada en el principio de responsabilidad de Hans Jonas es ya una rutina y considera que la evaluación del impacto es un elemento clave del principio de precaución, esto no es así en eeuu. Allí, la Oficina de Evaluación de Tecnología (ota, por sus siglas en inglés) se cerró durante el gobierno de Ronald Reagan, una victoria temprana para el movimiento anticiencia. Hillary Clinton anunció en su campaña electoral de 2016 que quería reabrir este órgano o uno similar.

Evaluación de impacto en tres niveles

En Europa, sin embargo, siguen vigentes el principio y el método de evaluación de los efectos a corto y largo plazo de las nuevas tecnologías y el consiguiente asesoramiento político. La Red de Evaluación de Tecnología Parlamentaria Europea (epta, por sus siglas en inglés) reúne los métodos y las evaluaciones de impacto para los parlamentos europeos en una base de datos común. Para fortalecer la confianza en la tecnología en la era de la inteligencia artificial, en tiempos en que la tecnología gana cada vez más terreno en todas las áreas de nuestras vidas, es necesaria una evaluación de impacto en tres niveles.

Primero, como se ha descripto, una evaluación parlamentaria de impacto en el nivel político y legislativo. El objetivo en este caso es averiguar qué áreas afectará una nueva tecnología y qué debe hacer el Poder Legislativo para que sea preservado el interés público. Idealmente, esta evaluación de impacto debería tener lugar antes de que se utilicen tecnologías de alto riesgo. El poder de decisión con respecto a las consecuencias que han sido examinadas en una evaluación de impacto hecha por expertos debe estar en manos del gobierno o del Poder Legislativo, lo que en el nivel de la ue sería área de responsabilidad de la Comisión y el Consejo, así como del Parlamento a modo de colegislativo.

El segundo nivel se refiere a los desarrolladores y usuarios de nuevas tecnologías. Sería importante que se introdujera en relación con la inteligencia artificial una obligación legal para las empresas de realizar una evaluación de impacto de sus productos. Tal obligación legal ya existe para datos personales que se utilizan en procesos automatizados de toma de decisiones. Esto debería extenderse a todos los ámbitos de la democracia, el Estado de derecho y los derechos fundamentales. Al menos si la inteligencia artificial tiene potencial para ser utilizada en el ámbito del ejercicio público del poder, es decir, en el ámbito democrático y político o en el ámbito de los servicios de interés general, independientemente de si se tratan datos personales o no.

Las evaluaciones de impacto en el nivel de desarrollador y usuario favorecerían la comprensión pública de la inteligencia artificial allí donde actualmente sigue faltando transparencia y conocimiento sobre los efectos. Las evaluaciones también ayudarían a que los directores ejecutivos y desarrolladores admitan el poder que realmente ejercen mediante sus productos. Así podría desarrollarse en la industria tecnológica una nueva cultura de responsabilidad por la democracia, el Estado de derecho y los derechos fundamentales.

Los estándares para ese tipo de evaluaciones de impacto antes de la difusión de la inteligencia artificial deberían establecerse en una ley redactada en términos generales, de manera similar a la obligación de realizar una evaluación de impacto en el rgpd. El Estado debe controlar el cumplimiento y debe haber sanciones severas en caso de incumplimiento. Si la inteligencia artificial va a ser utilizada por el Estado o se va a difundir ampliamente en la sociedad, la evaluación de impacto debería ser publicada. Si la tecnología es de alto riesgo, el gobierno debe realizar sus propios análisis y elaborar un plan para minimizar riesgos. Sin diferenciar entre sector público y privado, la resolución del Parlamento Europeo del 16 de febrero de 2017 con recomendaciones destinadas a la Comisión Europea sobre normas de derecho civil sobre robótica (2015/2103/inl) representa el plan mejor desarrollado hasta la fecha para manejar la inteligencia artificial. Contiene certificaciones ex ante y el marco legal para la investigación, el desarrollo y el uso.

En el tercer nivel, a las personas debería asistirlas el derecho legal de estar informadas sobre la funcionalidad exacta de la inteligencia artificial que están utilizando. ¿Qué lógicas sigue? ¿Cómo afecta su uso los propios intereses o los intereses de terceros? Esta obligación de proporcionar información también debería existir aunque no se estén procesando datos personales. En este caso, ya existe la obligación legal en el rgpd.

En este contexto, debe rechazarse la exigencia de los gigantes tecnológicos de mantener en secreto los modos de funcionamiento y los procesos de toma de decisiones de la inteligencia artificial. Ya existen numerosos proyectos de investigación sobre la explicabilidad de la inteligencia artificial. Y aunque existe al menos la obligación legal de proporcionar información cuando están involucrados actores estatales, la realidad es que las empresas mantienen mayormente en secreto los modos en que funciona su inteligencia artificial y las autoridades públicas no pueden cumplir con su obligación de proporcionar información si quieren utilizar esta tecnología.

Por todas estas razones, necesitamos una profunda evaluación de impacto de la inteligencia artificial en los tres niveles mencionados para seguir adelante con el diálogo entre tecnología y democracia. Esto es crucial en un momento en que la inteligencia artificial se está volviendo omnipresente e influye cada vez más en nuestras vidas. Si del debate público resulta una nueva conciencia de la responsabilidad por la democracia, los derechos fundamentales y el Estado de derecho, entonces la inteligencia artificial se habrá ganado una buena cuota de confianza y aceptación en la sociedad.

  • 1.

En 2021 se presentó un proyecto para avanzar en la regulación. Ver Marimar Jiménez: «La ue establece líneas rojas a la inteligencia artificial. ¿Por qué, cuáles son, a quién afectan?», suplemento «Cinco días» en El País, 22/4/2021 [N. del E.].

  • 2.

El principio de neutralidad tecnológica sostiene que el Estado no ha de imponer preferencias a favor o en contra de una determinada tecnología [N. del E.].


Este artículo es copia fiel del publicado en la revista Nueva Sociedad 294, Julio - Agosto 2021, ISSN: 0251-3552

Publicado enPolítica
Tim Berners-Lee en el Centro Europeo de Física de Partículas (CERN) en Meyrin (Suiza). CERN-Pool

Sir Tim Berners-Lee vuelve a dar otra lección al mundo. Si en abril de 1993 liberó el código fuente de la World Wide Web para su uso libre, paso decisivo en la revolución mundial que trajo internet, ahora se sube a la moda de la tokenización al vender una copia original de ese importante trabajo por 4,6 millones de euros. No sólo donará el dinero sino que, además, con este gesto muestra un camino de viabilidad económica para el código abierto sin traicionar su naturaleza.

 

El creador del código de la World Wide Web, Tim Berners-Lee, ha subastado una copia firmada de su creación más célebre en forma de token no fungible (NTF, por sus siglas en inglés) en Sotherby’s, y se ha comprometido a donar la cantidad recaudada, 5.434.500 dólares —unos de 4,6 millones de euros. Más allá de su generosidad, este gesto ayuda a contextualizar la fiebre por estos bienes digitales, cuya venta no implica cerrar el acceso de todos a su obra. En este caso, el comprador paga por una copia original autenticada, pero el código sigue siendo abierto, libre e infinitamente clonable. Es como adquirir un manuscrito original de un autor clásico: el contenido seguirá siendo de dominio público.

¿Suena absurdo comprar algo que se puede ver pero no tocar? Puede ser. ¿Es una manera brillante de monetizar algo libre y abierto sin violar sus principios? También. Esta operación de Berners-Lee ha dado lugar a una interesante reflexión de la periodista Kate Knibbs en la revista estadounidense Wired: el significado de este gesto para la historia de la Web ante el "impacto transformador" de los NFT.

El floreciente mercado de los NTF lleva un tiempo dando jugosos titulares. Desde la venta del primer tuit de la historia firmado por uno de sus fundadores, Jack Dorsey (2,4 millones de euros), hasta un archivo de audio de pedos de casi una hora de duración por unos 80 euros.

Fue también noticia la venta de una columna del diario The New York Times (toda una 'metanoticia') con la que su autor, Kevin Roose, ganó (y donó) más de 500.000 euros, y artistas como el granadino Javier Arrés venden copias únicas firmadas y autenticadas (tokens) con importantes beneficios económicos.

Incluso el NFT del meme de Nyan Cat, ese clásico de Internet y creado por Chris Torres, fue vendido este año por casi 500.000 euros. Disfrútelo gratis aquí abajo.

No obstante, comprender el funcionamiento de la tecnología en la que se basan (las cadenas de bloques o blockchain) no resulta todavía fácil ni intuitivo para el común de los mortales.

Cadenas de bloques

La técnica de cadenas de bloques involucra a miles de ordenadores que, de forma distribuida y descentralizada, ordena la información de tal forma que cualquier irrupción en esa cadena puede ser detectada inmediatamente por cada miembro de la red. Dada la enorme cantidad de cálculos que requiere crackearla, las cadenas de bloques se alzan como uno de los métodos más seguros de demostrar la propiedad de un valor (o token) y su autenticidad. Aunque también arrastra la mala fama de demandar un alto consumo energético.

Básicamente, esos los NFT tienen una naturaleza similar a la de las criptomonedas como Bitcoin o Ethereum: son intangibles que representan un valor y su autenticación está garantizada mediante una técnica de cifrado compleja. Pero, a diferencia de las criptomonedas, no hay dos NFTs iguales (cada uno es único) y no se pueden dividir (cada uno es un valor o token).

El mencionado artículo de Wired reflexiona sobre una realidad: la tokenización de la obra de Berners-Lee no crea una barrera para el código, sino que el valor surge de la autenticidad de una copia concreta, como las primeras ediciones de obras literarias o los manuscritos raros cuyo precio expresa el deseo de los coleccionistas (o inversores) de poseer la obra original.

En un completo artículo en el sitio de tecnología Xataka, el periodista especializado Javier Pastor enumera las características especiales que tienen los NTF, y que permiten comprender hasta cierto punto el acomodo que ha encontrado precisamente en el mercado del coleccionismo y del arte: son únicos, indivisibles, no interoperables, indestructibles (salvo catástrofe planetaria), no replicables, verificables (a través de la cadena de bloques se puede trazar desde el nacimiento de la obra por su autor hasta sus sucesivas compraventas) y, además, son prueba de propiedad absoluta.

Para el abogado especializado en internet Carlos Sánchez-Almeida, que además fue miembro de Fronteras Electrónicas (grupo pionero en la defensa del ciberespacio en España en los años 90) y autor de República Internet, reconoce que, para él, el verdadero original sería el papel donde diseñó Berners-Lee la World Wide Web.

"Un token no es más que una cadena de código", recuerda, aunque aventura: "A lo mejor los artistas digitales, al crear directamente sobre programas, nos hacen dar el salto definitivo de manera que, en un futuro, la versión impresa de una obra de arte colgada en un museo valga menos que la obra tokenizada, la original".

"La quintaesencia de la cultura libre"

En el caso de Tim Berners-Lee, la subasta del código que él mismo creó —mejor dicho, de una copia tokenizada del mismo— puede suponer una manera de preservar y sellar la autoría de los archivos digitales para las generaciones futuras, de forma que la propiedad de un bien único no excluya su disfrute por parte de toda la humanidad.

Esta venta viene pues cargada de un enorme simbolismo, dado que fue el propio Berners-Lee quien convenció al CERN para ofrecer el código fuente de la World Wide Web, ideado en 1989, a todo el mundo sin ninguna limitación. Y ahora ha anunciado que donará lo obtenido, una acción "totalmente alineada con los principios de la web", aseguró a The Guardian.

Almeida afirma que la donación del dinero obtenido representa "la quintaesencia de la cultura libre, es decir, está generando dinero para la comunidad", y añade: "Desde un punto de vista de solidaridad social, es como para darle un Nobel".

En cualquier caso, el abogado especializado recuerda que cualquier tecnología tiene interés en la medida en la que pueda generar riqueza. "Creo que lo interesante es pensar cómo aquello que ya está tokenizado pueda convertirse en un objeto tangible, incluso en comida donde no la hay, quizá mediante una impresora 3D", comenta, y añade: "Como dijo Arthur C. Clarke, cualquier tecnología lo suficientemente avanzada es indistinguible de la magia, y precisamente por eso nos cuesta mucho reflexionar sobre ella; dentro de unos años veremos qué

Madrid

01/07/2021 21:50

Romero@pabloromero

Vista de una pagina web que informa de los problemas para conectarse a la red tras el fallo que ha dejado este martes a decenas de páginas web en todo el mundo sin servicio. — EFE

Un fallo en la red de distribución de contenidos Fastly provoca la caída de cientos de webs y plataformas como Amazon, Twitch o Reddit.

 

Un problema no identificado en la red de distribución de contenidos online (CDN) estadounidense Fastly ha provocado la caída de cientos de páginas webs a nivel internacional, en un suceso que también ha afectado a España.

La compañía advirtió justo antes del mediodía en España que estaba sufriendo algunos errores de rendimiento en una web dedicada a dar explicaciones del incidente.

En su cuenta de Twitter, Fastly explicaba: identificamos una configuración de servicio que provocó interrupciones en nuestros POP (miles de pequeños y dispersos puntos de presencia) a nivel mundial y hemos desactivado esa configuración. Nuestra red global vuelve a estar en línea".

Entre las webs afectadas, se encontrarían portales como Reddit, algunas partes de Amazon o Spotify, según denuncian usuarios en redes, así como numerosos medios de comunicación internacionales como The New York Times, el británico The Guardian o Financial Times, y a nivel español, los medios de Unidad Editorial y el Grupo Zeta, así como el diario deportivo AS. Algunos de estos medios han conseguido restablecer el servicio en pocos minutos.

Además, en las redes sociales, miles de personas notificaron problemas con diversas plataformas, incluyendo algunas como Amazon, Twitch, Reddit, Spotify y Twitter.

¿Qué es Fastly?

Fastly ofrece servicios CDN, que consiste básicamente en muchas de redes de servidores distribuidos por todo el mundo en los que viven los datos, aplicaciones y servicios a los que accedemos de forma remota.

Normalmente, cuando grandes interrupciones, como la que se ha dado este martes, afectan a gran parte de Internet, se debe a algún proveedor de servicios central, como Fastly.

En una lista en la web habilitada para seguir el incidente por Fastly (la suya se encuentra caída), se identifican todos los centros de la compañía que se encuentran bajo "rendimiento degradado", entre ellos la instalación con la que cuentan en Madrid, según la etiqueta otorgada por la firma.

madrid

08/06/2021 17:27

Público / Agencias

Cómo borrar datos personales que no deberían estar en la red

 

Existen herramientas que facilitan la eliminación de cuentas mientras que los buscadores tienen sus propios formularios

Es probable que si teclea su nombre en Google encuentre entradas que no sabía ni que existían. Desde páginas web con datos personales como su dirección o su teléfono a fotografías que en su momento no le preocupó subir a Internet. E incluso cuentas que creó en aplicaciones que apenas llegó a utilizar. A medida que se navega y comparte información en la web, se deja un rastro al que cualquier persona del mundo puede acceder sin levantarse del sofá. Borrar la huella digital por completo es complicado. Pero sí existen opciones para eliminar y llevar un control de la información personal sobre usted que aparece en Internet.

Todo lo que un usuario escribe en redes sociales, blogs, foros u otros servicios puede aparecer en Internet. Es posible editar o borrar gran parte de esta huella de forma manual. “Para localizar este contenido, lo más recomendable es acudir a Google y buscarse a uno mismo, escribiendo entre comillas tu nombre y tu apellido, para posteriormente ir, con mucha paciencia, eliminando toda esa información”, explica Fernando Suárez, presidente del Consejo de Colegios de Ingeniería Informática (CCII) de España.

El usuario puede eliminar una a una cada cuenta que ha creado en redes sociales y otros servicios. Pero hay herramientas que facilitan el trabajo. Por ejemplo, Deseat.me ofrece una lista de todas las cuentas que se ha creado una persona con un email determinado y le permite solicitar su eliminación con solo pulsar un botón. Mientras tanto, AccountKiller recopila enlaces directos para facilitar que cualquier usuario pueda eliminar su cuenta en sitios como Gmail, Instagram, Netflix o Microsoft. “¿Quiere deshacerse de su cuenta en línea? No debería ser un problema, ¿verdad? Desafortunadamente, en muchos sitios, incluidos los populares como Facebook, eliminar su cuenta puede ser un verdadero dolor”, explica en su propia web.

“Eliminar por completo la huella digital es prácticamente imposible: una vez publicamos información en Internet, perdemos el control sobre ella y no sabemos quién puede acceder y con qué objetivo”, advierte Suárez. Para él, “una vez publicado algo en la web, perdemos el control sobre ese contenido”. Pone el siguiente ejemplo: “Si publicamos una foto en una red social y posteriormente la eliminamos, no podemos tener la seguridad de que personas que hayan accedido a dicha fotografía no la hayan publicado en otros sitios web y, por lo tanto, su eliminación es mucho más complicada”.

Cómo borrar la información que aparece en Internet

Además, la la ley europea de derecho al olvido permite pedirle directamente a Google que desindexe cierta información. Es decir, que cuando alguien utilice el buscador, una web determinada no aparezca entre los resultados. Existe un formulario para hacerlo. El usuario debe indicar uno a uno qué enlaces desea que se retiren e indicar el motivo.

Google puede retirar información personal que suponga un riesgo importante de robo de identidad, fraude financiero u otro tipo de daños específicos. Así lo afirma Suárez: “Por ejemplo, números de identificación como el DNI o datos de la tarjeta sanitaria, números de cuentas bancarias o tarjetas de crédito, historiales médicos, imágenes de firmas o fotografías de contenido sexual explícito subido a la web sin nuestro consentimiento”.

Pero la opción de pedirle a Google que elimine cierta información tiene sus limitaciones. Juana María Perea, decana del Colegio Oficial de Ingeniería Informática de las Islas Baleares, destaca que rellenar el formulario no garantiza que desindexen los datos. La compañía de Mountain View revisa uno a uno los enlaces y elige si desindexarlos o no. “Cuando envías una solicitud, en Google buscamos el equilibrio entre los derechos a la privacidad de los usuarios afectados, el interés público que pueda tener esa información y el derecho de otros usuarios a distribuirla”, afirma el gigante tecnológico en su web.

Por ejemplo, la compañía puede rechazar retirar información sobre estafas financieras, negligencias profesionales, condenas penales o conductas de funcionarios. A ello se suma que este formulario solo garantiza la retirada de datos dentro de la Unión Europea. Por lo tanto, los datos seguirán apareciendo en las versiones internacionales del buscador.

Otros buscadores

Google es el líder indiscutible de los buscadores. En 2018 acaparó el 96% de las búsquedas de los usuarios, según Statista. Le siguen de lejos Bing, con un 3%, y Yahoo, con un 1%. Aún así, los expertos recomiendan controlar también qué aparece en estas alternativas. “El proceso anterior solo es aplicable a Google. Yahoo y Bing tienen su propio formulario para ejercer nuestro derecho a desaparecer de la red”, cuenta Perea. En ambos buscadores, en el caso de que acepten la solicitud, el contenido solo se retiraría en Europa.

Tanto Perea como Suárez coinciden en la importancia de controlar en qué sitios webs uno se da de alta. El presidente del CCII aconseja, ante todo, “prudencia antes de hacer uso de las herramientas de internet”: “No solo de aquellas en las que publicamos información de forma directa, como blogs o redes sociales, sino del propio rastro que dejamos, por ejemplo, al hacer búsquedas o navegar”. En este sentido, recomienda eliminar periódicamente las cookies, utilizar VPNs (red privada virtual, por sus siglas en inglés) u optar por buscadores alternativos a Google pensados para navegar sin dejar rastro.

Madrid 17 FEB 2020 - 20:06 CET

Publicado enCultura
Albert Fert, premio Nobel de Física 2007 WIKIMEDIACOMMONS | JEVILLEGAS

Albert Fert, el premio Nobel de Física en 2007, argumenta que, en 2030, el 20% del consumo de energía mundial vendrá de la transmisión digital de los datos

Si tuviéramos la capacidad de diseñar el ordenador o móvil ideal, ¿cómo sería? Muchos usuarios se centrarían en la estética, otros en la funcionalidad o la originalidad. Pero en realidad, los físicos como Albert Fert (Carcassone, Francia, 1938), que desde la semana pasada se encuadra como investigador distinguido en el departamento de Física de Materiales de la Universidad del País Vasco, se preocupan por la capacidad de almacenamiento, el consumo de energía y la duración de la batería.

"Lo más incómodo de los teléfonos actuales es tener que recargarlos constantemente", explica a SINC el premio Nobel de Física en 2007, junto al alemán Peter Grünberg, durante una de sus últimas visitas a España en el festival Passion for Knowledge. Varias compañías ya están en proceso de fabricación de estos móviles que podrán durar de siete a quince días sin ser recargados.

"Después no tengo una idea particular de cómo será ese móvil del futuro", confiesa el descubridor de la magnetorresistencia gigante (1988), un efecto de la mecánica cuántica que ha permitido miniaturizar los lectores de los discos duros de los ordenadores y aumentar su capacidad de almacenamiento.

Esto dio lugar a la espintrónica, una tecnología que manipula el estado cuántico de las partículas –el espín del electrón– para aplicaciones en la industria informática. Gracias a sus propiedades, el resultado serán móviles, ordenadores y discos duros, entre otros, más eficientes, rápidos y con mayor capacidad de almacenamiento.

Pero para Fert, hasta ahora director científico de la Unidad Mixta de Física del CNRS/Thalès en Francia, el reto en la mejora de los ordenadores y discos duros es encontrar nuevos materiales que permitan reducir el consumo de energía. "El 20% del consumo de electricidad del mundo en 2030 vendrá de la transmisión digital de los datos", dice el físico, recordando un estudio publicado en la revista Challenges.

¿A qué equivale buscar en Google?

Los data centers o centros de procesamientos de datos, espacios donde se gestiona toda la información por parte de grandes empresas y organizaciones, son sin duda los mayores consumidores de energía, más incluso que los propios ordenadores personales. 

"Como cada vez más cosas pasan por internet, el consumo energético de los data center aumentará en los próximos diez años en un factor 10", señala el físico francés, que subraya que un centro de datos de Google en EE UU gasta tanta energía como la ciudad de San Francisco.

¿Pero a qué equivale la energía que gastamos con la navegación por la red? "Una información que siempre doy es que treinta búsquedas en Google corresponden a la energía necesaria para hervir un litro de agua", puntualiza Fert. Con este dato no es difícil extrapolar la ingente cantidad de electricidad que se consume, y que afecta directamente al medio ambiente, solo para mantenernos informados.

Fert lo tiene claro: "Gastamos inútilmente cuando buscamos en internet. Con un ordenador podríamos encontrarlo directamente pero, por pereza, volvemos a pasar por Google y creamos enlaces para llegar a una web". Ni siquiera las energías renovables, como la solar y la eólica, son capaces en la actualidad de compensar el gasto energético de los ordenadores.

A pesar de las predicciones para la próxima década, con la creación de la computación en la nube y conexiones de inteligencia artificial, que no harán más que incrementar el consumo, solo la tecnología será capaz de reducir este gasto. Y es aquí donde la espintrónica de Fert tiene algo que decir.

Menos energía y más espacio

El premio Nobel francés plantea una cuestión frente a este problema: "¿Cómo continuar mejorando las tecnologías de la información a la vez que se frena un poco esta hemorragia de consumo energético?". Para ello, pronto llegará una nueva generación de ordenadores que consumirán mucho menos y estarán basados en efectos de la mecánica cuántica.

"En la actualidad, en los ordenadores lo que consume la energía es la memoria RAM, el almacenamiento de datos que para cumplir su labor tiene que estar continuamente proporcionando energía", declara a SINC el físico.

Ahora la producción de almacenamiento masivo ya se está produciendo en Samsung o IBM –que llevó al mercado la magnetorresistencia gigante en 1997– con los STT-RAM (spin-transfer torque magnetic random-access memory) que están basados en principios de la espintrónica, en particular sobre fenómenos cuánticos como es el efecto túnel cuántico que depende del espín, una propiedad cuántica de los electrones.

El investigador colaboraba con el centro de investigación vasco nanoGUNE para desarrollar una nueva generación de microprocesadores con la compañía Intel. Gracias a la espintrónica, busca soluciones para mejorar la eficiencia de microprocesadores con nuevos materiales.

"Aún hoy las puertas lógicas de los ordenadores consumen mucha energía. El proyecto con Intel se basa en aislantes topológicos, unos sistemas bidimensionales con propiedades muy especiales que permiten transformar señales magnéticas en señales eléctricas de manera muy económica y eficaz", explica el físico.

En los últimos años el desarrollo de la espintrónica se ha acelerado hacia múltiples direcciones, y no solo culmina en discos duros y productos de STT-RAM.

Un ordenador que imita el cerebro

Una de las aplicaciones son los ordenadores y sistemas neuromórficos, es decir computadoras inspiradas en el cerebro. "Esto está empezando", recalca el físico. En la actualidad, los ordenadores bioinspired reproducen las sinapsis y las neuronas con microcircuitos.

"Pero hacen falta cientos de transistores para hacer una neurona y decenas para hacer una sinapsis, y el resultado son ordenadores enormes que consumen también mucha energía como los del programa Alphago, que gastan 10.000 veces más energía que el jugador de Go que tiene enfrente", especifica el francés.

Estas máquinas utilizan un tipo de cálculo diferente, más bien neuronal, al que usan los ordenadores habituales, principalmente digital. En este caso, tienen compuestos específicos basados en otros materiales nanofísicos.

"En toda la informática actual, lo que gasta mucha energía es que hay vaivenes incesantes entre operación lógica y memoria. Incluso en los microprocesadores entre la memoria SRAM (Static Random Access Memory, por sus siglas en inglés) y puertas lógicas es este tipo de escritura y lectura continuo lo que gasta energía", ilustra Fert.

Pero en el cerebro, el proceso difiere: "La memoria y la transferencia de señales a la memoria ocurren a la vez. En cuanto una señal pasa de neurona a neurona, cada vez que se atraviesa una sinapsis, esta cambia y es memorizada", dice el físico. Los señales analógicas del cerebro permiten una visión con más matices que se transmiten por millones de sinapsis y neuronas.

¿Será posible algún día usar ordenadores que imitan al cerebro? Para ello habría que realizar una sinapsis con 50 transistores y una neurona con 500. "Esto es enorme. Si quisiéramos realizar algo con la potencia del cerebro necesitaríamos un ordenador del tamaño de Madrid", confiesa.

Esta tecnología, desarrollada especialmente por la investigadora francesa Julie Grollier, con la que ha trabajado Fert, todavía es limitada. "Aún no existen los componentes ni los efectos que permiten imitar las neuronas y las sinapsis", dice. "Estamos solo al principio", concluye el premio Nobel.

Por Adeline Marcos - Agencia SINC

08/02/2020 - 16:56h

Código Ruiwen Chua / Flickr

La firma de ciberseguridad Check Point demuestra cómo China ya usaba las herramientas de la NSA incluso antes de que estas se filtraran en Internet en 2016

Los hackers chinos reescribieron el código de algunos malwares de la Agencia de Seguridad Nacional de EEUU (NSA) e incluso mejoraron algunas de las herramientas

 

Buckeye, APT3 o UPSTeam. Son distintas formas de llamar al mismo grupo de hackers chinos que copiaron y mejoraron las herramientas de la agencia de seguridad estadounidense (NSA) incluso antes de que se hicieran públicas en Internet en diciembre del 2016. No solo eso: una vez que mejoraron el código de los americanos, lo usaron para atacar las redes vulnerables de estos sin apenas esfuerzo y de forma mucho más barata. Son las principales conclusiones que se extraen de un informe de ciberseguridad de la firma Check Point y que apunta a que la guerra comercial entre ambos países también se libra en la Red.

El principio de la historia se remonta a finales de 2016. Entonces, los hackers de The Shadow Brokers publicaron en Internet un pack que supuestamente pertenecía a la NSA y en el que había de todo: desde herramientas de hackeo y recolección de datos, exploits, software de fuerza bruta y RATs (otro tipo de software de espionaje que permite controlar el dispositivo a distancia y encender la webcam o el micrófono del ordenador, entre otras cosas) hasta información sobre vulnerabilidades en páginas web y programas. Se las habían robado a Equation Group, otro grupo de hackers afín a la NSA según los expertos.

El año pasado, la compañía de ciberseguridad Symantec publicó cómo Buckeye (o APT3 o UPSTeam) llevaban utilizando esas mismas herramientas desde antes incluso de la filtración de The Shadow Brokers. También daban a entender que los chinos habían desarrollado sus propias herramientas e incorporado los ataques de día cero contra Windows (explotación de una vulnerabilidad conocida de antemano por los atacantes en una red o programa) a su repertorio. ¿Que cómo lo hicieron? Copiando el código con el que fueron atacados.

"Muy probablemente lo que han hecho ha sido utilizar los ataques que han visto en una red que tenían controlada", explica a eldiario.es Eusebio Nieva, director técnico de Check Point. Nieva ofrece dos posibles maneras por las que los chinos se hicieron con las herramientas: "Bien porque se trate de una red que ha atacado la NSA o quién sea o bien porque se ha utilizado ese ataque en un servidor que ellos [los chinos] previamente habían atacado y tenían control sobre él", continúa.

La ingeniería inversa del ¿gobierno chino?

Check Point ha conseguido demostrar la teoría de Symantec sobre la reutilización del código del malware por parte de los chinos. "APT3 recreó su propia versión de un exploit de Equation Group usando y capturando tráfico de red", explica la firma de ciberseguridad en su informe. "Creemos que este artefacto fue recolectado durante un ataque realizado por Equation Group contra una red monitoreada por APT3, lo que les permitió mejorar su arsenal de ataques con una fracción de los recursos necesarios para construir la herramienta original", explican.

Dos investigaciones independientes (una llevada a cabo por la compañía de ciberseguridad Recorded Future y otra por Intrusion Truth) señalan que detrás de APT3 podría estar el ministerio de Seguridad del Estado chino. En concreto, relacionan el nombre con el de un contratista chino, Boyusec, desmantelado tras la publicación de otro artículo en la web de Intrusion Truth.

El programa creado por los hackers chinos a partir de las herramientas de la NSA tiene nombre, Bemstour, y es bastante similar a EternalRomance, uno de los exploits originales dentro del paquete de Equation Group. Según Check Point, Bemstour sería una mezcla entre este y EternalSynergy, también creado por la NSA. La firma de ciberseguridad asegura que el código entre ambos es casi idéntico, con la particularidad de que mientras el de la NSA requiere de una librería específica para crear los paquetes que servirán para el ataque, en el de los chinos los paquetes están "hechos a mano por los desarrolladores".

"La conclusión es que China y EEUU se encuentran en una carrera ciberarmamentística que no hay que despreciar. Y al final, tanto los unos como los otros están utilizando todos los mecanismos a su alcance, incluyendo la copia: se están copiando los unos a los otros", concluye Nieva.

Por David Sarabia

10/09/2019 - 21:13h

Rusia lanza su ley de la soberanía del Internet: balcanización global de las redes

En la Cumbre Económica Internacional de San Petersburgo, el zar VladyPutin fustigó el veto de EU contra Huawei que catalogó de Primera Guerra Tecnológica de la Era Digital: “Nos preocupan las prácticas destructivas que afectan a los mercados tradicionales –energía, productos básicos, bienes de consumo– y que están virando hacia nuevos mercados en desarrollo”.


Putin fue puntual: Huawei no sólo está siendo desplazada, sino forzada sin contemplaciones a abandonar el mercado global.


Agregó que “el modelo actual de las relaciones económicas internacionales está en crisis hoy en día y que se trata de una ‘crisis integral’” ya que “EU está tratando de ‘imponer su poder legal’ en todo el planeta ”(https://bbc.in/2Ixsb5U)”.


Durante la visita del mandarín Xi a Moscú llamó la atención que Putin permitiera un acuerdo con la firma rusa de telecomunicaciones MTS para que Huawei desarrolle su tecnología 5G y su lanzamiento piloto de redes de la quinta generación en Rusia.


La rusófoba dupla anglosajona de EU y Gran Bretaña (GB), en la fase del Brexit/Trumpismo, repite la misma propaganda negra que le dio resultado durante la guerra fría mediante su trivial maniqueísmo: la dualidad ultrareduccionista de libertad/derechos humanos contra los antónimos abultados de autoritarismo/sofocación de libertades de sus contrincantes. Como si la libertad y los derechos humanos fueran radiantes y plenos en EU y GB…


Justin Sherman, del portal Wired, alega que Rusia e Irán planean fundamentalmente aislar al Internet: encabezan un nuevo nivel de fragmentación del Internet que amenaza la arquitectura de la red global (cables, servidores) y permite a los gobiernos controlar mayormente los flujos de información y someter las libertades, lo cual podría ser imitado con implicaciones geopolíticas (https://bit.ly/2wH1N40).


Irán anunció en mayo que su Red de Información Nacional –su Internet doméstico– está 80 por ciento completo, mientras que Rusia lanzó su ley de la soberanía del Internet, también doméstico, para defenderse de las amenazas a su ciberseguridad.


Justin Sherman arremete contra China que “ha apretado el control de su Internet y que pasó de su Proyecto de Escudo Dorado (Golden Shield Project), como vigilancia de la base de datos de carácter policiaco, y ahora ha pasado a un nivel más sofisticado como un Gran Cortafuegos (Great Firewall) que filtra los flujos de información que entran al país.


James Reston, feroz crítico de la ley de la soberanía del Internet de Rusia –que juzga en forma unidimensional como persecución de la disidencia y la oposición–, señala que el Kremlin desea invertir 50 mil millones de dólares o 17 por ciento del presupuesto federal anual de Rusia para crear un Internet soberano en los próximos cinco años con “20 mil 800 millones de dólares, específicamente dedicados al equipamiento que garantice la seguridad del segmento ruso del Internet (https://bit.ly/2Ze9Uku).


Rusia se dispone a crear un “Internet soberano (Financial Times; 01/05/19 y 04/06/19)” que constituye una red paralela manejada enteramente en los servidores rusosque permite a Moscú mantener la operación del Internet durante un discapacitante ciberataque foráneo.


En su diatriba, más que un extenso artículo de corte vulgarmente rusófobo, el globalista Financial Timesfustiga que la dependencia rusa en los sistemas foráneos sería ampliamente reducida, acelerando una balcanización global del Internet, donde la influencia de Occidente (sic) es fragmentada.


Refiere que en 2014,“Putin declaró al Internet como un proyecto de la CIA capaz de debilitar la soberanía de Rusia”.


Hace seis años, lo cual quizá tuvo mucho que ver con la destrucción de un Brasil soberano por el evangelismo sionista ( https://sptnkne.ws/kx7p ), los BRICS, hoy una agrupación alicaída, pregonaron la balcanización del Internet para contrarrestar el espionaje del NSA (National Security Agency; https://bit.ly/2XzedGE).


Ahora resulta que si los gobiernos no se dejan espiar por la dupla NSA/CIA, pues son vilipendiados por la prensa libre como autoritarios.


AlfredoJalife.com
Twitter: @AlfredoJalifeR_
Facebook: AlfredoJalife
Vk: id254048037

Publicado enInternacional
Cándido y el Elogio de la locura (La Cultura Pooph II, diez años después)

En el pasado, equivocados o no, por lo general quienes opinaban sobre política italiana o congoleña se habían leído la historia de Italia, del imperio romano, tenían alguna idea sobre la belga, sabían algo de la vida y obra de Leopold II y qué había pasado con Lumumba. Ahora el mundo está lleno de genios que opinan primero y luego intentan informarse. Si alguien se atreve a criticar el optimismo en curso, es etiquetado y desautorizado como un viejo que no entiende el presente. Como si los adultos no fuesen parte del presente. Como si los más jóvenes entendieran mejor algo del pasado, ese tiempo que, de alguna forma, produjo este presente. Como si las nuevas generaciones no pudiesen ser radicalmente reaccionarias. 

Antes no era necesario ser un estudiante universitario para poseer este tipo de cultura amplia y profunda. Ahora ni siquiera los estudiantes universitarios alcanzan un mínimo de aquel conocimiento que servía a la libertad de conciencia y no únicamente a los propósitos del dinero, el consumo y el confort de “un mundo más eficiente”.


Es verdad, aquella “gente culta” solía ser (aun suelen serlo), gente por los de abajo. No se trata de una simple cuestión gramsciana, como gustan apuntar desde el otro lado. Se trata de una reacción natural ante el poder social. De la misma forma que las universidades en todo el mundo, desde Argentina hasta Japón, desde Mozambique hasta Estados Unidos eran y siguen siendo bastiones progresistas, el resto de las grandes instituciones que dominan el poder social están dominados por conservadores elitistas y reaccionarios: empresas transnacionales, inversionistas, medios de comunicación dominantes, ejércitos, iglesias de todo tipo.


De la misma forma que la cultura solía ser (y aún lo es, en términos generales) el reducto de la izquierda, las redes sociales lo son ahora de la derecha. Lo primero ya lo explicamos. ¿Cómo se explica lo segundo? Creo que se explica de la misma forma que se explica la antigua práctica de esclavos negros castigando con latigazos a sus hermanos esclavos, a los negros, a los indios más rebeldes. A los malos negros, a los malos indios. Es decir, por la falsa conciencia, por la moral parasitaria, aquella moral adptada para beneficiar los intereses ajenos.


Tal vez en unas pocas décadas, como siempre cuando la verdad ya no interese o sea inofensiva, descubriremos cómo funcionan los algoritmos de las redes sociales, así como descubrimos, décadas después cómo la propaganda inaugurada por Edward Bernays en Estados Unidos y continuada brevemente por los nazis en Europa, manipuló la opinión y la realidad del mundo durante el siglo XX, desde los más pequeños hábitos consumistas a las mayores tragedias de la gran política, como las guerras y los golpes de Estado en Africa y en América Latina.


Por entonces, los gobiernos del mundo y las elites financieras tomaron una amplia ventaja de los nuevos medios de comunicación masivos e inmediatos (la radio, el cine y la televisión) como en el siglo XIX lo habían hecho con la prensa escrita, mientras los libros quedaron en manos de intelectuales del otro lado del espectro del poder (nótese cómo la misma palabra “intelectual” fue desprestigiada y desmoralizada por la propaganda, hasta el extremo de que hoy se precia y se paga más la estupidez que la inteligencia. Nadie se hace viral por genial sino por idiota, y tanto YouTube como las otras mega aldeas dominadas por un puñado de manipuladores, recompensa esta idiotez con miles de dólares, lo cual para ellos no llega a ser ni siquiera una propina. Si antes, apenas unas pocas décadas atrás era necesario ser Roberta Flack cantando Killing Me Softly With His Song para llamar la atención del mundo, hoy vale más una pobre mujer sentada en el inodoro y cantando sin armonía alguna “Sitting in tha Toilet” para hacerse una celebridad global, para recaudar una fortuna e inspirar a cientos de millones de jóvenes a lograr la misma hazaña.


Algunos de estos idiotas prestigiosos, paradigmas del antiintelctualismo, son llamados, en múltiples idiomas pero con la misma gracia y la misma palabra del inglés, “influencers”. Claro, eso sin contar los millones de idiotas que cada día trabajan gratis para estas megacorporciones tirándose de una escalera, rompiéndose la nariz, filmándose en el baño sin llegar siquiera a rescatar cincuenta centavos con los nuevos subscribers, pero aportando definitivamente a esa cultura de la estupidez y del odio neo tribal.


No lo sabemos todavía, no tenemos pruebas (más allá de la lectura de los patrones históricos que se parecen a la tabla periódica de Mendeleev con vacíos significativos), porque así es como funciona, según reconoció el mismo Bernays en los años noventa, al final de su vida: esa es la naturaleza del poder, estar en otro lado, no allí donde se supone que está, protegido por el anonimato y la ignorancia de quienes lo sufren o lo defienden.


La evidencia, el incontestable hecho de que el 0,01 por ciento de la población mundial ha secuestrado casi todos los progresos de la humanidad hasta el día de hoy, no se ve o no importa. Porque para eso, no por casualidad, está la nueva cultura planetaria. Y los esclavos continúan peleándose y odiándose entre sí, repitiendo las narrativas funcionales del poder y adoptando fervorosamente sus valores.


Por Jorge Majfud,  escritor uruguayo-estadounidense. Profesor en la Jacksonville University.

Publicado enCultura
Jueves, 04 Abril 2019 06:05

Una pelea desigual contra los gigantes

Una pelea desigual contra los gigantes

Las implicancias de la disposición del Parlamento Europeo sobre derechos de autor en Internet



Los más optimistas celebraron la noticia como si fuera la primera batalla ganada a los gigantes de Silicon Valley, a los que dejaban “en jaque”. ¿El argumento? Que Facebook, YouTube, Google y otros monstruos de Internet iban a tener que empezar a pagar por el contenido de otros que utilizan sus buscadores y plataformas en Europa. Los más críticos, sin embargo, alzaron sus voces señalando que se trataba del certificado de defunción de los autores y medios pequeños y alternativos, que ahora verán cercenada la “libre” difusión de sus obras. La aprobación de parte del Parlamento Europeo de una disposición que protege los derechos de autor y obliga a los buscadores y agregadores de noticias a celebrar “acuerdos” por la utilización de contenidos dividió aguas en la manera en que los diferentes medios dieron cuenta de la reforma. ¿A quién beneficia y a quién perjudica realmente esta disposición europea? ¿Nace un nuevo ecosistema en Internet? Interrogantes que distintos especialistas argentinos, reunidos por PáginaI12, intentan dilucidar en medio de la siempre viscosa búsqueda de regular Internet.


Tras más de dos años de debate y de presiones cruzadas, el Parlamento Europeo aprobó la semana pasada una reforma que fue presentada por sus impulsores como una norma que protege la propiedad intelectual de todo el material que la corporación de Internet utiliza “libremente” en sus buscadores o agregadores de noticias. Fue la respuesta que la política encontró para que autores, periodistas y medios -sólo en el ámbito de la Unión Europea- reciban una remuneración de las grandes empresas que se valen de sus obras y contenidos para generar no sólo tráfico sino también ingresos publicitarios: el 80 por ciento de la publicidad global en Internet se la llevan los grandes buscadores estadounidenses.


Sin embargo, la disposición –que cada país deberá implementar dentro de los próximos dos años– corre riesgo de volverse contraproducente a ese supuesto espíritu de “redistribución”. Google fue el primero en mostrar los dientes, al expresar que no está dispuesto a celebrar acuerdos de ningún tipo, amenazando directamente con no subir las noticias a Google News de medios europeos que exijan una contraprestación económica. Los más críticos señalan que por el temor a violar la normativa la circulación de contenidos –sobre todo de los medios más pequeños o alternativos– se vería afectada por la “sobreprotección” que las grandes compañías impondrán a sus “algoritmos” y “filtros” preventivos, cercenando la circulación de material. Una directiva que, como se aprecia, tiene implicancias no sólo económicas sino también culturales y políticas.


“La normativa es un reconocimiento de la necesidad de revisar las reglas de juego presentes, pero también un síntoma de la impotencia para resolver las tensiones creadas entre los múltiples actores sociales, culturales y corporativos que participan de ese circuito productivo, porque una parte de la nueva directiva puede puede restringir la circulación amplia de información y puede concentrar aún más el control, la censura y la autocensura de carácter privado en Internet”, le explica a PáginaI12 el especialista Martín Becerra, investigador principal del Conicet, en relación a que a partir de esta reforma las grandes plataformas están obligadas a vigilar los contenidos que los internautas comparten en sus espacios, para “censurarlos” en caso de que detecten si se está publicando obras protegidas por derechos de autor.


Si bien el también profesor UBA y UNQ considera “lógico” el reclamo de los creadores de contenidos informativos y culturales de ser remunerados y de participar de la amplia circulación de sus obras, percibe que la disposición aprobada puede transformarse en un boomerang para la libertad de circulación y expresión. “El hecho de tercerizar el control de la legalidad de los contenidos en los gigantes digitales que son verdaderos gatekeepers del acceso social es problemático. Hoy esa función la ejercen (mediante algoritmos sesgados y también con intervención humana, igualmente sesgada) con enorme discrecionalidad, sin auditoría pública y, lo que es más grave, sin mecanismos transparentes para que el usuario pueda apelar remociones y censuras improcedentes. Por eso digo se reconoce el problema, pero ofrecen una resolución más problemática aún”, subraya Becerra.


En la misma línea que el académico, la presidenta de Fundación Vía Libre, Beatriz Busaniche, sostiene que la resolución es “negativa” para la cultura digital y la cultura del siglo XXI. “Hay –dice– un avance muy fuerte contra las nuevas formas culturales, contra la producción on line, los Youtubers, contra ese colectivo de gente que utilizando la tecnología produce o circula cultura de una forma novedosa. Es una normativa que refuerza un modelo económico y de derechos de autor basados en un diseño regulatorio del siglo XIX. Llevan el control hasta sus últimas consecuencias, con las copyright watch, que son máquinas de censura para limitar técnicamente y sin demasiado margen a la apelación, la forma en que una obra es resignificada, reproducida y compartida”.


La Magister en Propiedad Intelectual descree del argumento de que la regulación va a beneficiar a los autores. “Es una forma –afirma, taxativa– de entregar mucho más poder a la concentrada industria del entretenimiento. Todos aquellos que están tratando de forjar una carrera novedosa, de abrirse camino, de desarrollar modelos alternativos de negocios, se van a ver obturados, porque los grandes buscadores van a ser extremadamente sobreprotectores”.


En ese sentido, Javier Pallero, coordinador general de Acces Now, una ONG de Derechos Humanos en Internet, no tiene dudas que la regulación “más que un retroceso es una oportunidad perdida”. En su opinión, no soluciona el problema ni tampoco democratiza la red. “Es necesario actualizar el marco de derechos de autor en la comunidad europea y también hay que regular los nuevos desafíos que enfrentan las industrias culturales y de noticias. Pero hacerlo con disposiciones tan extremistas como poner filtros automatizados, que son tan proclives a la censura, es una pérdida. La legislación pone toda la fe en algoritmos, y una máquina no entiende de contextos. Y las excepciones al derecho de autor que toma en cuenta la norma –como la sátira y la parodia, pero también para contenidos educativos– tienen que ser evaluados de acuerdo al contexto. Los algoritmos tienen la incapacidad para interpretar sin censurar. Y otro aspecto a considerar es que termina subrayando la dominancia de las plataformas de Silicon Valley, porque son las únicas que van a dar respuesta a escala. Aun cuando la directiva pone como excepción de su aplicación a las pequeñas empresas, lo hace de una manera vaga y muy poco conveniente. Eso será un incentivo para que las empresas europeas sean pequeñas. A las pequeñas las condenan al enanismo, mientras les aplican una regla pesada, a medida de los gigantes”.


Lejos de dinamitar el uso y abuso que los gigantes de Internet hacen de contenidos que no les pertenecen, la resolución podría terminar empoderando aún más a las grades compañías, al incrementar sus sistemas de sobreprotección de contenido. En esto hay coincidencia. “Hay –analiza Becerra– una confusión entre la legítima pretensión de discutir el dominio de los gigantes globales de Internet en la captura de la renta publicitaria por la comercialización de los contenidos producidos por las industrias culturales y de medios, y la delegación de mayor poder de decisión respecto de qué se exhibe o no en Internet que la nueva directiva asigna a esos gigantes digitales. En esta paradoja los medios tradicionales (con la excepción, probablemente, de los de mayor escala) no salen ganando”.


La posibilidad de que Argentina replique una regulación con tantos daños colaterales es un alerta que los especialistas coinciden como posible. “América Latina va a la saga de la Unión Europea. Los medios no hegemónicos en Argentina deberían considerar que una regulación de este tipo va a consolidar una acumulación de poder muy fuerte que tienen los grandes medios”, avizora Busaniche. Becerra cree, también, que por historia y tradición es probable que aterrice en estas tierras una regulación similar. “Las decisiones europeas son modelo para muchas otras regiones y para países cuyos procesos de maduración de los debates son más recientes o precarios. Además, los gigantes digitales suelen adaptar sus estándares de funcionamiento a las disposiciones más recientes y/o más rigurosas de Europa o de América del Norte, con lo que de facto esa regulación produce un efecto cascada en países de otras regiones, en particular en los países periféricos”.

Publicado enSociedad
Página 1 de 18