Ver para no creer

Cuando la realidad es indistinguible de la ficción, ¿cómo validamos lo que es real?

ANA FUENTES

Un 'deepfake' de Jim Carrey como Jack Nicholson en 'El resplandor'.
Un ‘deepfake’ de Jim Carrey como Jack Nicholson en ‘El resplandor’.

Donald Trump anunció la erradicación del sida en el mundo hace un par de semanas. En realidad no fue él, sino un deepfake, un vídeo falseado con herramientas de inteligencia artificial. Una ONG francesa manipuló la imagen y la voz del presidente estadounidense para transmitir un mensaje que jamás salió de su boca. Al final del vídeo, un rótulo indicaba que se trataba de un montaje. A sus responsables les llovieron críticas por haber basado su campaña en un fraude, pero consiguieron millones de visitas en Internet.

Los deepfake, falsedades ultrarrealistas, nacieron apenas hace dos años. Se basan en la tecnología GAN (Generative Adversarial Networks, en inglés) o redes generativas antagónicas: en una explicación de brocha gorda, hay dos agentes que compiten entre sí. Uno genera contenido e intenta engañar al otro para que piense que es real; el otro discrimina lo que no le resulta creíble. Y así el sistema se va perfeccionando, aprende a crear contenido cada vez más realista.

No se sabe cómo van a evolucionar estas redes de creación y suplantación. No existen estándares, no hay reglas sobre qué se puede simular y qué no. Unas GAN son buenísimas generando rasgos de personalidad en vídeo, otras imitando inflexiones de voz… En medicina, por ejemplo, se están usando para generar radiografías sintéticas casi indistinguibles de las reales con las que investigar.

El gran negocio con el uso de GAN, por ahora, es la pornografía. Miles de actrices y cantantes americanas, coreanas y británicas se han visto protagonizando vídeos sexuales falsos en Internet. Aterroriza pensar en cómo esta tecnología pueda ser usada por abusones de instituto para humillar a compañeras.

También empiezan a hacerse públicos timos financieros. En marzo, el responsable de una empresa energética en el Reino Unido recibió una llamada de su jefe en la que le pedía que hiciese una transferencia de 200.000 euros a un proveedor húngaro. En realidad la voz que ordenó el trámite había sido generada por ordenador, pero imitaba perfectamente el acento y la cadencia del jefe real. No existía el proveedor húngaro, era un ladrón, según informó The Wall Street Journal.

El Estado de California ha prohibido crear y distribuir vídeos deepfake 60 días antes de unas elecciones. Argumentan que bastante desafección existe ya en el electorado como para que proliferen mensajes falsos. Pero puede quedar en un parche inútil si no se educa a los ciudadanos para que tengan claro de quién se fían y por qué. Como tantos avances tecnológicos, este nos pone en un aprieto filosófico: cuando la realidad es indistinguible de la ficción, ¿cómo validamos lo que es real? Nuestros sentidos pronto nos engañarán, y nos veremos obligados a reflexionar antes de compartir, a contrastar antes de opinar. Tendremos que aprender a verificar lo que nos parecía evidente. @anafuentesf

https://elpais.com/

“MEZZANINE” DE MASSIVE ATTACK SE CONVIERTE EN EL PRIMER DISCO EN SER ALMACENADO EN ADN

LOS CIENTÍFICOS HAN LOGRADO ALMACENAR ESTE DISCO EN INALTERABLE ADN

Resultado de imagen para "MEZZANINE" DE MASSIVE ATTACK SE CONVIERTE EN EL PRIMER DISCO EN SER ALMACENADO EN ADN

A los genetistas les gusta Massive Attack y han elegido su disco más famoso, Mezzanine, el cual cumple 20 años por estas fechas como el mejor de 1998. 

Tal vez como una forma de llamar la atención a su trabajo o simplemente como una demostración de su apreciación por el trip hop de Massive Attack, los científicos han logrado almacenar este disco en inalterable ADN.

Mientras que el código guardado en silicio se va degradando con el tiempo, la información almacenada en ADN no se degrada durante miles de años y se puede guardar más información. Así que el ADN es realmente un medio superior, pues 1gr de ADN puede “hospedar” a mil millones de terabytes.

Los científicos de la Escuela Politécnica Federal de Zúrich lograron almacenar el disco en 5 mil pequeñas cuentas de vidrio, esparcidas a lo largo de cerca de 1 millón de codones de ADN. Para hacer esto, primero trasladaron el código binario (0s y 1s) a las bases de los cuatros nucleótidos del ADN (A, T, G, C). Luego sintetizaron moléculas de ADN -lo más complejo de la labor- para que las secuencias pudieran ser grabadas allí.

Así que posiblemente las futuras generaciones, miles de años más adelante en el futuro, podrán seguir disfrutando de esta música.

https://pijamasurf.com

El factor Huawei

No podemos permitir que la sobrecarga informativa nos lleve a pasar por alto un asunto urgente: quién va a controlar el 5G en Europa y con qué consecuencias.

ANA FUENTES

Un hombre maneja un móvil en una feria tecnológica en China.
Un hombre maneja un móvil en una feria tecnológica en China. REUTERS

Cómo se manejará el Brexit, qué hacer si Trump impone aranceles, por qué las economías crecen tan poco… Hay demasiados frentes a los que atender. Pero no podemos permitir que la sobrecarga informativa nos lleve a pasar por alto un asunto urgente: quién va a controlar el 5G en Europa y con qué consecuencias. Esta tecnología multiplica la velocidad de intercambio de datos y eso va a cambiar radicalmente la producción, el trabajo y las relaciones humanas. Se puede aplicar tanto a operaciones a corazón abierto a miles de kilómetros de distancia como a la conducción de coches. Hoy, el actor mejor posicionado para competir por las licencias es la china Huawei. Con casi el 30% de la cuota de mercado, es más barata que sus competidores. Pero tiene al Gobierno chino detrás, y las autoridades europeas no acaban de fiarse de ella.

Hace unos días, la Comisión y la Agencia Europea de Seguridad plantearon que ciertos proveedores de telecomunicaciones “de países externos a la UE” y dependientes de un Estado podrían comprometer la seguridad de la Unión. A la hora de subastar las licencias de 5G, los Estados no solamente deberían tener en cuenta los aspectos técnicos, sino también políticos y estratégicos. Sin mencionar a Huawei, hablaban de la empresa china indirectamente. Sabiendo que ninguna red es del todo segura, para qué correr el riesgo de que una compañía con un Estado autoritario detrás sepa exactamente por dónde pasa la información sensible.

Nadie ha podido probar que Huawei esté detrás del espionaje industrial que le atribuye Estados Unidos. Pero en caso de conflicto, Huawei se debe al Partido Comunista. La Ley de Seguridad Nacional china de 2015 obliga a todos los ciudadanos y empresas a cooperar con los organismos del Estado en asuntos de seguridad nacional, sin matizar cuáles.

Es imposible separar lo comercial de lo político. Encabezando la liga anti Huawei —y presionando al resto— está EE UU, que lleva meses en un tira y afloja con Pekín porque ve comprometido su liderazgo mundial. Washington se ha puesto proteccionista y China invoca el libre mercado. “Los primeros juegan a meter miedo y los segundos a dar pena”, dice un responsable de ciberseguridad europeo. Japón y Australia también han vetado a Huawei. En Francia la entrada al 5G queda a merced del primer ministro. Sin embargo, Alemania acaba de abrirle la puerta. Merkel reconoce que no pueden permitirse dañar las relaciones comerciales con China. Han sido meses de tensión entre Exteriores e Inteligencia, por un lado, y Comercio y las empresas, por otro. Se ha impuesto la lógica comercial en un momento de mucho miedo al futuro y a otra crisis económica.

Antes de Navidad la Unión Europea publicará sus recomendaciones sobre ciberseguridad, pero para entonces muchos países habrán subastado sus frecuencias 5G. Como siempre, tendremos un documento de mínimos consensuado y muchos intereses dispares. Europa necesita autonomía estratégica, pero solo tiene margen para parir marcos ideales.

https://elpais.com/

Blob, el organismo “sin cerebro y 720 sexos” del Zoo de París es más interesante de lo que parece: es un ordenador biológico

Blob, el organismo "sin cerebro y 720 sexos" del Zoo de París es más interesante de lo que parece: es un ordenador biológico

JAVIER JIMÉNEZ

Se llama ‘Blob’, es amarillento y, aunque parece un hongo, se comporta como un animal. Ah, y tiene el nombre de una película de ciencia ficción y terror de 1958 en la que The Blob, una forma de vida extraterrestre, consume todo a su paso en una pequeña ciudad de Pennsylvania. Como era de esperarestá dando la vuelta a todo el mundo.

Pero tranquilos porque ese apelativo cariñoso que le han puesto en el Zoo de París no es, en absoluto, un spoiler. Es marketing. En realidad, el Physarum polycephalum es un moho del fango. Ya os hemos hablado de ellos (y de su sorprendente inteligencia): se trata de unas curiosas masas de protoplasma con numerosos núcleos capaces de deslizarse por el suelo para buscar alimento y que, más allá de eso, pueden resolver problemas.

¿Un ordenador biológico?

Eg Mrhwwkaah465

Y eso, su sorprendente capacidad de resolver problemas sin tener una base biológica clara que se lo permita es lo que lleva intrigando a los científicos durante años. En el año 2000, un equipo de investigadores japoneses y húngaros demostraron que los mohos del fango eran capaces de resolver el “problema del camino más corto”. Cultivado en un laberinto con solo dos puntos de alimento, el plasmodio era capaz de retirarse de todas las zonas del laberinto excepto del camino más corto entre los dos puntos.

Más aún, en 2010, un equipo japonés desarrolló un problema en el que se simulaba la situación geográfica de Tokio y otras 36 ciudades. Se colocaron copos de avena en cada una de ellas y el resultado final fue muy parecido a la estructura real del transporte metropolitano de esa zona de Japón. De hecho, además de ser capaz de resolver problemas computacionales, las colonias tienen memoria.

El P. polycephalum lleva dos décadas sorprendiendo a los investigadores porque muestra comportamientos muy complejos para lo que estamos acostumbrados. De hecho, algunos especialistas han llegado a proponer el estudio de este plasmodio como modelo para la construcción de dispositivos de biocomputación.

El Zoo de Paris ha creado una zona para exhibirlo y está haciendo una campaña de marketing muy agresiva con declaraciones como “el Blob es una de las cosas más extraordinarias del mundo de hoy” o frases engañosas como los 720 sexos. Sin embargo, más allá de esa hype inflado, es un recordatorio claro de que la naturaleza sigue teniendo mucho que enseñarnos.

https://www.xataka.com/ecologia-y-naturaleza/

Robots en armonía con la naturaleza: la poética concepción tecnológica en Japón

Sergio Parra

thumb image

La evolución de la tecnología ha sido cada vez más rápida, y pasado cierto punto de inflexión en su crecimiento exponencial, ha resultado ser profundamente disruptiva.

Dicho en román paladino: cada dos años te quedas atrás si no te actualizas, y los robots van a quitarnos gran parte de los trabajos actuales (incluso los más creativos).

Para tener perspectiva de la actual velocidad en el progreso tecnológico, tengamos en cuenta lo siguiente: desde los utensilios líticos a partir de esquirlas a la fundición del primer cobre pasaron tres millones de años, pero solo 3.000 años transcurrieron desde la Edad de Hierro hasta los primeros vuelos espaciales.

Todo va tan rápido que ello produce cierto desajuste, como señalaba Edward O. Wilson: «El verdadero problema de la humanidad es el siguiente: tenemos emociones del Paleolítico, instituciones medievales y tecnología propia de un dios. Y eso es terriblemente peligroso».

Los japoneses, sin embargo, han tratado de atenuar este decalaje afrontando la tecnología desde un punto de vista mucho más armónico y menos disruptivo. Porque la ciencia y la tecnología japonesas no son un desafío a la naturaleza, no son una superación de la misma, sino que han sido tradicionalmente campos que suponen una extensión armónica del entorno natural.

Un concepto animista, el shinto, da buena prueba de ello, pues es un pensamiento que otorga un papel esencial a la naturaleza y concibe su relación con el ser humano como especialmente fluida.

Por ello, los robots japoneses, tanto los que se construían en el siglo XVIII como los modernos, pasando por los que aparecen en el manga y el anime, no conllevan una separación radical entre ciencia y naturaleza como ocurrió en Europa.

En Japón no es tan acentuado el síndrome de Frankenstein porque no se observa una clara diferencia entre artificial y natural en lo tocante al ámbito tecnológico. Uno de los robots más conocidos que nos puede ayudar a entenderlo es Gakutensoku, cuyo nombre significa, literalmente, «aprendiendo de las leyes de la naturaleza».

Shizen

ADAPTACIÓN A LO NATURAL

Una forma muy evidente de la distinta forma que tiene Japón y Occidente de conceptuar la naturaleza es la forma de sus jardines. En Occidente tratamos de imponer la racionalidad humana en el jardín, siendo el paradigma esos jardines franceses perfectamente cizallados, como laberintos naturales, buscando siempre la simetría de forma muy rígida. Pero, tal y como explica Florentino Rodao en su libro La soledad del país vulnerable, los jardines japoneses incluyen plantas y rocas porque trata de imitar la naturaleza:

Sus jardines, en consecuencia, son más selección y observación que creación propia; el jardín zen es un buen ejemplo de ese esfuerzo por representar a la naturaleza «como la experimentamos, más que como pensamos que es». Otro ejemplo ha sido la normativa vigente desde la época Edo de plantar un árbol cuando se corta otro, algo que no ha ocurrido en latitudes europeas.

Desde la Ilustración, la ciencia europea empezó a considerar la naturaleza como algo que se debía dominar, alterar o incluso destruir por considerarse un lastre para el progreso humano. En Japón, esta visión también tuvo lugar, pero no de forma tan inflexible, porque no procedía tanto de un pensamiento filosófico, sino fruto de las innovaciones científicas procedentes de Occidente.

Así, objetos tecnológicos como un cuchillo de acero inoxidable eran productos culturales como lo era el primer ventilador eléctrico, que se vendió como bunka(cultura) senpuki (ventilador eléctrico). El mejor ejemplo tecnológico para expresar esta ambigüedad, como ya se ha dicho, es el robot (robotto).

Robots japoneses
Karakuri japonés

ROBOTS

Si acudimos al Museo de las Ciencias de Osaka encontraremos una réplica de Gakutensoku concebida en el año 2005. Sin embargo, el original fue presentado en la Gran Exposición de Kioto en conmemoración de la coronación imperial de 1928. Estamos, pues, ante uno de los primeros robots de la historia de Japón.

Este autómata diseñado por el biólogo Nishimura Makoto era capaz de escribir mensajes en un papel y cambiar la expresión de su rostro impulsado por un complejo mecanismo de aire a presión. En el pecho exhibe una flor que simbolizaba el universo.

En la parte superior de su cabeza llevaba una corona de hojas, que es el símbolo de todos los alimentos del planeta, así como un pájaro que, al cantar anunciando el alba, demudaba la expresión del autómata en meditabunda (sí, el rostro estaba hecho de goma y fue diseñado para combinar las características de todos los pueblos del mundo). Tras la reflexión, el autómata sonríe y escribe algo en una hoja de papel, empujado por la inspiración poética.

Robots japoneses
Gakutensoku

Así, si bien el término «robot» fue acuñado por el escritor checo Karel Čapekbasándose en el verbo checo «trabajar» en su obra R.U.R. (Rossum’s Universal Robots) en 1920, Gakutensoku no fue diseñado para plegarse a ese propósito, y por tanto no sustituye al ser humano o lo mejora, sino que es un reflejo de la creatividad humana.

En el Japón de los siglos XVIII y XIX, los autómatas empezaron a dividirse de este modo tres clases bajo el término karakuri, que se podría traducir como «aparatos mecánicos para producir la sorpresa en una persona». En primer lugar estaban los Butai Karakuri, que se usaban en el teatro. Después estaban los Zashiki Karakuri, que eran más un elemento decorativo en una vivienda pudiente.

Es el caso, por ejemplo, del yumihiki doji, una figura de un arquero que toma una flecha y la dispara, repitiendo el acto cuatro veces. El mecanismo hace que intencionadamente el arquero falle nueve de cada diez disparos a fin de incrementar la tensión del espectador.

Finalmente, encontramos los Dashi Karakuri, que eran utilizados para interpretar leyendas o mitos. Porque los autómatas pueden ser perfectos transmisores de adagio o moralejas que permitan hacer evolucionar a la sociedad.

Un buen ejemplo de ello es la leyenda titulada  Cómo el príncipe Kaya hizo una muñeca y la puso en los campos de arroz, que se recoge en el  Konjaku Monogatari-shu, una colección de mil historias de Japón medieval escritas alrededor de 1120. En la historia se refleja que para solucionar el problema de las sequías en los campos de arroz, un príncipe diseñó un autómata para incentivar a los campesinos a regar: el autómata portaba un recipiente que, una vez llenado de agua, este se echaba por la cara, causando la hilaridad y el regocijo de los campesinos.

Así todos ellos llevaban baldes de agua, uno detrás de otro, por el simple hecho de pasarlo bien, regando indirectamente el campo. Uno de los primeros ejemplos de la actual gamificación.

Bajo estas coordenadas no es extraño constatar que la historia de Astro Boy, una serie de manga escrita e ilustrada por Osamu Tezuka, y publicada desde 1952 a 1968, fuera uno de los primeros relatos en tratar el tema de la inteligencia artificial y el derecho de los robots.

La fusión del robot con el ser humano también es mucho más acentuada en esta cultura, y lo podemos ver en el manga y el anime, donde aparecen ya en la década de los 1970 los mechas, robots controlados por humanos o que se hibridan de algún modo (normalmente con el humano dentro del robot, de mayor tamaño). El ejemplo paradigmático de mecha es Mazinger Z.

Robots japoneses
Mazinger Z

De este modo, el robot pasa a ser una parte importante más del engranaje social a todos los niveles, como señala Rodao:

Las ceremonias de purificación shinto también pueden incluir a robots y demás aparatos electrónicos, lo que también presupone que puedan tener un espíritu y, con ello, esa integración de la tecnología en la sociedad.

SHIZEN

Shizen es un término que tiene un significado esquivo para los occidentales, pero que amplía las fronteras de «medio ambiente» o «ecología». También es algo que surge espontáneamente cuando no forzamos las cosas, es decir, que consiste manipular lo natural, pero de forma armónica, sin oponernos a ello y evitando lo caótico y lo perversamente malintencionado.

E introduce ideas tan oximorónicas para nosotros como «artificialmente natural», en palabras del filósofo moral japonés Tetsuro Watsuji. Como explica Juan Ramón Lacadena en La mediación de la filosofía en la construcción de la bioética:

En la tradición que se remonta a Lao-Tsé lo contrario de natural no es artificial. Lo que se opone a lo natural es lo perversa o doblemente intencionado (en japonés, «sakui», intencionalidad manipuladora). También existe en japonés la palabra «jini» para designar lo «artificial»o producido por mano humana. Pero esto no tiene necesariamente que ser antinatural. Si lo artificial se acopla al «camino» y deja que el «camino» despliegue sus virtualidades, lo artificial se hace de un modo natural. No olvidemos que para Lao-Tsé el misterio del devenir era el arquetipo de lo natural, de lo que es «shizen», espontáneo.

Finalmente, a esta manera tan distinta de mirar, en la que lo artificial y lo natural tienen fronteras difusas, se le añade cierta admiración no solo por el poder de la naturaleza, sino también por el poder y la belleza del ingenio humano. Porque la naturaleza puede transformarse y ser mejor, no solo con intervenciones religiosas, sociales y rituales, sino también científicas y tecnológicas.

Hasta el punto de que podemos pasear por el campo y admirar los ríos y las montañas, pero también por un paisaje industrial que puede resultar tan evocador y estético como el de Passaic, Nueva Jersey, descrito así por el artista Robert Smithson en Un recorrido por los momentos de Passaic al toparse con máquinas un sábado en el que los operarios libran: «Criaturas prehistóricas atrapadas en el barro o, mejor, maquinaria extinguida… dinosaurios mecánicos despojados de su piel». O sea, shizen.

Algunos idiomas que nunca han sido descifrados podrían someterse a este sistema de traducción automática

Algunos idiomas que nunca han sido descifrados podrían someterse a este sistema de traducción automática

SERGIO PARRA

La nueva piedra Rosetta podría ser este nuevo sistema de traducción automática basada en una técnica de Inteligencia Artificial, el machine learning, pues ha logrado ya traducir lenguajes ya perdidos.

En solo unos años, el estudio de la lingüística ha sido revolucionado por la disponibilidad de enormes bases de datos anotadas y técnicas para que las máquinas aprendan de ellas. En consecuencia, la traducción automática de un idioma a otro se ha convertido en rutina. Y aunque no es perfecto, estos métodos han proporcionado una forma completamente nueva de pensar sobre el lenguaje.

Machine Learning

Jiaming Luo y Regina Barzilay del MIT y Yuan Cao del laboratorio de IA de Google en Mountain View, California, han desarrollado un sistema de aprendizaje automático (machine learning) capaz de descifrar idiomas perdidos. El enfoque que usaron fue muy diferente de las técnicas estándar de traducción automática.

En el enfoque estándar, el proceso se basa fundamentalmente en los grandes conjuntos de datos. Pero hace un par de años, un equipo alemán de investigadores demostró cómo un enfoque similar con bases de datos mucho más pequeñas podría ayudar a traducir idiomas mucho más raros que carecen de las grandes bases de datos de texto. El truco es encontrar una forma diferente de restringir el enfoque de la máquina que no se fundamente en la base de datos.

Una IA se lee un millón y medio de artículos científicos y encuentra cosas que los científicos no sabían ni que existían

EN XATAKAUna IA se lee un millón y medio de artículos científicos y encuentra cosas que los científicos no sabían ni que existían

Ahora Luo y su equipoa han ido más allá para mostrar cómo la traducción automática puede descifrar los idiomas que se han perdido por completo. La restricción que usan tiene que ver con la forma en que se sabe que los idiomas evolucionan con el tiempo.

La idea es que cualquier idioma puede cambiar solo de ciertas maneras; por ejemplo, los símbolos en idiomas relacionados aparecen con distribuciones similares, las palabras relacionadas tienen el mismo orden de caracteres, etc. Con estas reglas que limitan el sistema, resulta mucho más fácil descifrar un idioma, siempre que se conozca el idioma progenitor.

Linear B

Luo y compañía pusieron a prueba la técnica con dos idiomas perdidos: lineal B (sado para escribir el griego micénico, aunque fue usado principalmente con fines administrativos, desde el 1600 hasta el 1110 a. C.) y ugarítico (una lengua semítica que se hablaba en Ugarit (Siria) a partir del 2000 a. C.). Los lingüistas saben que el lineal B codifica una versión temprana del griego antiguo y que el ugarítico, que fue descubierto en 1929, es una forma temprana de hebreo.

Dada esa información y las limitaciones impuestas por la evolución lingüística, el sistema puede traducir ambos idiomas con una precisión extraordinaria. Este es un trabajo impresionante que lleva la traducción automática a un nuevo nivel. Pero también plantea la interesante cuestión de otros idiomas perdidos, particularmente aquellos que nunca han sido descifrados.

https://www.xatakaciencia.com/computacion

La fuente del sentido común

La sabiduría de Smart Compose proviene de los agentes de carne y hueso que alimentamos de datos al filósofo de silicio

JAVIER SAMPEDRO

La fuente del sentido común

Los 1.500 millones de usuarios de Gmail que somos en el planeta Tierra hemos notado últimamente que, cada vez que escribimos un correo electrónico, el texto predictivo se hace el listo y nos propone en letras grises la frase en la que estábamos pensando, cuando aún no hemos redactado ni la mitad. Lo más humillante es la cantidad de veces que el robot acierta. Pero lo más preocupante es cuando se equivoca, como le ha ocurrido al escritor John Seabrook, un clásico de The New Yorker. Seabrook estaba escribiendo a su hijo y pensó que, para despedirse, lo mejor que podía decirle era que estaba encantado (“I am pleased”). Pero, cuando iba por “I am p…”, el robot le propuso “I am proud of you” (estoy orgulloso de ti). Seabrook no solo se dio cuenta de inmediato de que la predicción del robot era incorrecta, sino también de que era mejor que su idea original, de que proponía una cosa que nunca le había dicho a su hijo y de que, maldita sea, ya era hora de que se lo dijera alguna vez. Tras unos segundos de duda, acabó aceptando la sugerencia de la máquina.

¿De dónde proviene esa sabiduría y buen sentido que han cambiado la vida de Seabrook? El texto predictivo del Gmail se llama Smart Compose, y bajo su humilde apariencia esconde un montón de investigación punta en inteligencia artificial. Es un producto del aprendizaje de máquina (machine learning), la misma tecnología que está detrás de los sistemas de reconocimiento facial, de lectura de voz, de búsqueda en Internet y de la mitad del avance de la robótica, por citar lo más gordo. Eso quiere decir que la sabiduría de Smart Compose, esa extraña especie de sentido común, proviene de nosotros, de los agentes de carne y hueso que alimentamos de datos al filósofo de silicio. Si el robot te propone que estés orgulloso de tu hijo, es porque lo ha visto hacer a miles y millones de humanos en una situación parecida. No sé si el sentido común ha sido alguna vez un consenso democrático, pero el aprendizaje de máquina puede estar logrando hoy ese prodigio. Si es que eso es un prodigio.

Pese a lo que sostienen algunos filósofos, la ciencia no es un proceso democrático. Para el avance del conocimiento, lo que piense la mayoría de la gente importa muy poco, salvo para obtener la financiación necesaria. Cuando Einstein estaba luchando, allá por 1905, para entender los principios que después cambiaron el siglo XX, hizo falta el mejor físico de la generación anterior, Max Planck, para publicarle los artículos y permitirle seguir con su investigación. Los demás científicos de la época no estuvieron a la altura, y se limitaron a denostar o, peor aún, ignorar a Einstein. Hasta el propio Planck pensaba en el fondo que todas esas ideas rompedoras eran una locura, pero su inteligencia científica le indicó —correctamente— que allí había algo que merecía la pena examinar a fondo. No, el avance del conocimiento no es un proceso democrático.

Entonces, ¿de dónde vino el buen consejo que cambió la vida de Seabrook? Si vino de una especie de consenso entre nosotros, los usuarios de Gmail, ¿quiere decir que 100.000 moscas no pueden equivocarse? Buena pregunta.

https://elpais.com

Esta canción compuesta por una máquina suena como Bach y mejor que un humano imitando a Bach

Esta canción compuesta por una máquina suena como Bach y mejor que un humano imitando a Bach

SERGIO PARRA

En octubre de 1997, un grupo de personas acudieron a la Universidad de Oregón para asistir a un concierto. En él escucharía tres piezas musicales a piano. Todos tenían que determinar qué pieza musical era la mejor, la más auténtica.

La primera era una pieza poco conocida compuesta por Johann Sebastian Bach. La segunda había sido compuesta imitando el estilo de Bach. La tercera era obra de un algoritmo diseñado para imitar el estilo de Bach. ¿Os imagináis cuál sonó más auténtica?

Imitando la música

Decía Pablo Picasso que los buenos artistas copian, pero los grandes roban. En ese sentido, el algoritmo que imitaba a Bach era un gran artista. Porque su forma de copiar era perfecta, asimilaba el alma de Bach… hasta el punto de que confundió al público asistente.

A la hora de adivinar cuál era cuál, el público, en su mayoría, votó que música genuina de Bach era la del algoritmo. La que recibió peores valoraciones fue la copia humana. Y eso que el músico humano que había interpretado aquella copia era Steve Larson, un profesor de música de la Universidad de Oregón que admiraba profundamente a Bach.

Quien quedó más desconcertado fue Douglas R. Hofstadter (sí, el autor del célebre libro Gödel, Escher, Bach que ganó el Pulitzer), porque además de haber sido el científico cognitivo que había organizado aquel concierto, en su libro había dejado por escrito esto:

La música es un lenguaje de emociones, y en tanto los programas no alberguen emociones tan complejas como las nuestras, no hay forma de que un programa pueda escribir algo hermoso… Pensar que podríamos ordenar a una “caja de música” programada que produjera piezas que podría haber escrito Bach constituye una tergiversación grotesca y vergonzosa de la profundidad del espíritu humano.

David Cope es profesor de musicología en la Universidad de California en Santa Cruz. También es una de las figuras más polémicas del mundo de la música clásica. Cope ha elaborado programas que componen conciertos, corales, sinfonías y óperas. Su primera creación se llamó EMI (Experimentos en Inteligencia Musical), especializada en emitar el estilo de Johann Sebastian Bach. Le llevó 7 años crear el programa, pero cuando el trabajo estuvo hecho, EMI compuso 5.000 corales al estilo de Bach en un solo día.

Si un algoritmo es capaz de crear una composición musical original que suena exactamente igual que el propio Bach, eso nos tiene que hacer reflexionar sobre algunas cosas. Como por ejemplo que quizá eso que llamamos creatividad humana no es más que un conjunto de reglas bastante simple que se basa en copiar y recombinar lo ya existente. También que la mayoría de nosotros no somos capaces de componer como lo hacía Bach.

Cuando Will Smith preguntaba a un robot, en la película Yo, robot, «¿Puede un robot escribir una sinfonía o convertir un lienzo en una hermosa obra de arte?», la réplica que recibió por parte del robot fue «¿Lo puedes hacer tú?». En pocos años, es probable que la respuesta del robot sea sí. O, al menos, la mayor parte de la gente será incapaz de deducir qué obra de arte está concebida por un humano y cuál por un algoritmo.

https://www.xatakaciencia.com/programacion

Radiografía de un cerebro enganchado al móvil

Luis F. Callado

thumb image

Durante los últimos años, el empleo de las nuevas tecnologías se ha extendido con fuerza en la sociedad. Está prácticamente generalizado el uso de internet en toda la población, principalmente entre los más jóvenes. Según datos de la encuesta del Ministerio de Sanidad ESTUDES 2018, el 99,6 % de los estudiantes de 14 a 18 años había utilizado internet en los últimos 12 meses.

El principal problema radica en que se puede pasar fácilmente de un uso generalizado de las nuevas tecnologías a un abuso de las mismas. Se ha detectado que el uso compulsivo de las nuevas tecnologías (internet, teléfono móvil, juegos online…) es un fenómeno creciente de nuestro tiempo, sobre todo, en los grupos de gente más joven.

Las últimas encuestas ESTUDES muestran que mientras casi un 3 % de la población de 15 a 64 años hace un uso compulsivo de internet, la prevalencia de este problema es siete veces mayor entre los estudiantes de 14 a 18 años.

El uso patológico de las nuevas tecnologías ha trascendido en los últimos años la consideración de trastorno del control de impulsos para encuadrarse dentro de las adicciones de comportamiento o sin sustancia. Se acepta que tiene una base común con el resto de conductas adictivas clásicas. Esta raíz común hace que la prevalencia de consumo de drogas como el alcohol y el cannabis sea superior entre los individuos que realizan un uso compulsivo de internet.

¿Qué pasa en el cerebro?

Conocemos desde tiempo atrás los mecanismos cerebrales que median la adicción a sustancias como el alcohol, la cocaína o el tabaco. Pero la aparición de estas nuevas adicciones sin sustancia ha obligado a los investigadores a repensar los mecanismos que podrían explicar este nuevo fenómeno.

En las personas que presentan dependencia a las nuevas tecnologías se han observado cambios estructurales y/o funcionales en regiones cerebrales como la corteza prefrontal, cingular, orbitofrontal y el sistema límbico. Estas zonas alteradas están implicadas en el procesamiento de fenómenos como la recompensa, la motivación o el control de impulsos.

Alteraciones similares aparecen también en personas con otros tipos de adicciones asociadas a drogas de abuso clásicas como la cocaína o las anfetaminas. El riesgo de aparición de estos trastornos es mayor entre los adolescentes porque las regiones cerebrales implicadas no han terminado de madurar a estas edades y son más vulnerables.

Estos déficits estructurales conllevan también un peor funcionamiento de estas regiones cerebrales. Aumenta la impulsividad, disminuye el control del comportamiento y crece la dificultad para tomar las decisiones más acertadas. Todos estos fenómenos contribuyen a generar un mayor riesgo de desarrollar una dependencia de las nuevas tecnologías.

Así reacciiona un cerebro enganchado al móvil
Iakov Filimonov / Shutterstock

En los sujetos que abusan de las nuevas tecnologías se ha descrito la existencia de alteraciones neuroquímicas y genéticas.

Características de las personas más vulnerables

También se ha descrito en los sujetos que abusan de las nuevas tecnologías la existencia de alteraciones neuroquímicas y genéticas que podrían contribuir a una mayor vulnerabilidad de estas personas a convertirse en dependientes de estas tecnologías. Factores como la existencia de estados emocionales alterados, una baja autoestima, una falta de identidad o una personalidad tímida o insegura pueden ser también factores de riesgo a tener en cuenta para valorar el peligro de desarrollar una dependencia a las nuevas tecnologías.

Como consecuencia de esta dependencia pueden aparecer síntomas ansiosos, irritabilidad, desajuste emocional y problemas en la interacción social. Los adictos a las nuevas tecnologías descuidan habitualmente sus rutinas diarias para permanecer más tiempo conectados, o bien sustraen horas al sueño nocturno, invirtiendo el ritmo circadiano. La cantidad y la calidad de su sueño son peores que en la población general. Esto disminuye el rendimiento académico o laboral asociado a la falta de concentración.

Permanecer conectados a la red más de 3 o 4 horas diarias facilita el aislamiento de la realidad, el desinterés por otros temas, los trastornos de conducta, así como el sedentarismo y la obesidad. También puede generar alteraciones físicas como sequedad de ojos, pérdida de audición, dolor de cuello y de espalda o inflamación e incluso artrosis de la articulación de la base del dedo pulgar. No basta con tratar estas afecciones de manera directa si no modificamos los hábitos que las han provocado. Si no lo hacemos, volverán a aparecer.

Es importante conocer tanto los mecanismos que median la dependencia a las nuevas tecnologías, como los factores de riesgo para su aparición. El objetivo es poder aplicar políticas de prevención eficientes y centradas en los grupos de población más vulnerables.

Una educación adecuada basada en la información veraz y en las evidencias científicas puede ser clave a la hora de reducir el riesgo de generalización del abuso de las nuevas tecnologías.

Luis F. Callado, Profesor Agregado de Farmacologia, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Lea el original.

¿Son felices nuestras mascotas?

Los científicos están comenzando a ser capaces de interpretar con exactitud las expresiones faciales de los animales y de entender lo que comunican.

Las expresiones faciales proyectan nuestras emociones internas al mundo exterior. Interpretar la cara de otras personas es algo natural y mecánico para la mayoría de nosotros. No hace falta que tu mejor amiga diga nada: con verle esas pequeñas arrugas alrededor de los ojos, las mejillas redondeadas y más elevadas y la comisura de los labios hacia arriba sabes que ha conseguido el ascenso que quería.

¿Qué pasaría si pudiéramos interpretar con la misma facilidad la cara de otros seres vivos? ¿Llegará el día en que podamos poner un teléfono inteligente frente a nuestro gato y saber cómo se siente?

Algunos investigadores están desarrollando sistemas de codificación que permiten interpretar de forma objetiva las expresiones faciales de animales, en lugar de deducir o suponer su significado. Un sistema de codificación describe con precisión cómo cambian los diferentes rasgos faciales cuando un animal siente una emoción concreta, como al entrecerrar los ojos o apretar la boca. Observando fotografías y anotando cuánto cambia cada uno de esos rasgos o “unidades de acción” podemos determinar con qué intensidad se siente una emoción.

Primera frontera: reconocimiento del dolor

Hasta ahora, solo se han desarrollado científicamente sistemas de codificación del dolor (escalas de gestos) para animales no primates. A pesar de su diferente anatomía, los ratones, las ratas, los conejos, los caballos y las ovejas (incluidos los corderos) ponen una cara de dolor similar: aprietan los ojos, se les abultan o aplanan los carrillos, cambian la posición de las orejas y tensan la boca.

Se ha demostrado que los corderos son unos de los animales que hacen muecas cuando sienten dolor. (Mirjam Guesgen)
Se ha demostrado que los corderos son unos de los animales que hacen muecas cuando sienten dolor. (Mirjam Guesgen)

El impulso en el desarrollo de escalas de gestos proviene en gran medida de nuestro deseo y obligación ética de evaluar y mejorar el bienestar de los animales que se utilizan en laboratorios o para la alimentación.

Queremos conseguir una manera de averiguar con precisión y fiabilidad cómo se siente un animal con solo mirarlo, en lugar de tener que extraerle sangre para realizar pruebas o monitorizar su frecuencia cardíaca. Al conocer su estado emocional, podemos ayudarle a reducir su dolor, cansancio o miedo e, idealmente, fomentar su alegría.

Es probable que los animales, sobre todo los sociales, hayan desarrollado expresiones faciales por la misma razón que nosotros: para comunicarse entre ellos o, en el caso de los perros, con nosotros.

Especialmente para las presas, las sutiles señales que otros miembros de su grupo pueden percibir (pero no los depredadores) son útiles para su seguridad, por ejemplo. Una señal de comportamiento de dolor puede generar la ayuda o el consuelo de otros miembros del grupo, o bien servir de advertencia para no acercarse a la fuente del dolor.

Foto: Pixabay
Foto: Pixabay

Si podemos descifrar los gestos, en teoría también deberíamos poder comprender las expresiones faciales provocadas por otras emociones como la alegría o la tristeza. También es probable que queramos entender las expresiones faciales de los animales más cercanos a nuestros corazones: nuestras mascotas.

Una aplicación en el móvil para las emociones animales

Algún día, los dueños de mascotas, los ganaderos y los veterinarios podrían poner un teléfono inteligente delante de un perro, de una oveja o de un gato y hacer que una aplicación les diga qué emoción concreta está sintiendo el animal.

Sin embargo, conseguir un sistema de identificación de emociones automatizado requiere muchos pasos. El primero es definir las emociones de una manera comprobable y no específica por especie.

El segundo es recopilar datos descriptivos de referencia sobre la expresión emocional en un entorno controlado y experimental. Una forma de hacerlo podría ser hacer que los animales experimenten situaciones que provoquen una emoción concreta y ver cómo cambian los patrones cerebrales, la fisiología, el comportamiento y el rostro. Cualquier cambio debería ocurrir con la suficiente fiabilidad como para poder denominarlo “expresión facial”.

Ya contamos con algunos indicios que podemos seguir: cuando los caballos están deprimidos cierran los ojos, incluso cuando no están durmiendo.

Foto: Pixabay
Foto: Pixabay

Cuando las vacas tienen miedo aplanan y agachan las orejas sobre la cabeza y abren mucho los ojos. Cuando las ratas están contentas tienen las orejas más abiertas y hacia delante y de un color más rosado.

Después de recopilar estos datos, deberíamos convertir esa información científica en un sistema tecnológico automatizado. El sistema debería poder extraer de una imagen las unidades de acción facial claves y determinar en qué medida esos rasgos difieren de la expresión neutra de referencia.

El sistema también debería poder resolver las diferencias individuales en los rasgos faciales, así como las sutiles diferencias en la forma en que cada sujeto expresa una emoción. El proceso de extracción y cálculo de los rasgos se complica o falla cuando un rostro está mal iluminado, en ángulo o parcialmente cubierto.

Aunque estamos progresando en la identificación automatizada de la expresión facial humana, todavía nos queda mucho camino en lo referido a los animales. Un objetivo más realista a corto plazo sería entender mejor qué emociones expresan los animales no humanos y cómo lo hacen. Puede que las respuestas nos estén mirando directamente a la cara.

Este artículo ha sido publicado originalmente en The Conversation

https://blogs.publico.es/otrasmiradas