Quantcast
Channel: Magazine - inteligencia-artificial
Viewing all 3104 articles
Browse latest View live

Una IA de Fujitsu permitirá automatizar la puntuación de los ejercicios de gimnasia en competiciones internacionales

$
0
0

Una IA  de Fujitsu permitirá automatizar la puntuación de los ejercicios de gimnasia en competiciones internacionales

La gimnasia ha estado presente en los Juegos Olímpicos contemporáneos desde su primera edición en 1896 y, en ese tiempo, los mayores cambios que ha sufrido la disciplina ha sido la introducción de la gimnasia femenina en 1928 y de la gimnasia rítmica en 1984.

Pero aspectos como la importancia de los jueces o, más bien, de su buen ojo, se han mantenido inalterados... hasta ahora. La gimnasia como competición gira en torno a la confianza de las federaciones en la mirada experta y entrenada de los jueces, capaces de valorar en milésimas de segundo los rápidos giros y saltos de los gimnastas de acuerdo al reglamentos.

El lídar y la IA vs los ojos humanos

Sin embargo, dichos reglamentos detallan aspectos como el ángulo en que deben situarse las rodillas, hombros y codos de los gimnastas. Pero, como explica Shoichi Masui, "los ojos humanos no pueden medir con precisión el ángulo de flexión de las articulaciones", por lo que al final las puntuaciones pueden "fluctuar a la hora de valorar movimientos idénticos".

Esto que genera polémicas y desconfianza hacia los jueces, pero Masui tiene la solución: es el responsable del proyecto puesto en marcha por Fujitsu para desarrollar una tecnología capaz de automatizar, a partir del año 2020, la puntuación de los ejercicios de gimnasia en competiciones oficiales.

Lo que Fujitsu propone es recurrir a la tecnología lídar para crear imágenes en 3D que muestren el contorno y el movimiento de los gimnastas. Sobre ese modelo, un sistema de inteligencia artificial determinará los ángulos de varias articulaciones (con un margen de error de ± 1 centímetro) y entregará los resultados de manera inmediata a los jueces para que los tengan en cuenta a la hora de puntuar.

Fujitsu ha estado colaborando con la Asociación Japonesa de Gimnasia para entrenar a esta IA que, según Masui, se basa en "un método de aprendizaje profundo y optimización" (si bien se negó a revelar más detalles).

Todo empezó con una broma (y terminará con su estreno oficial este año)

Morinaji Watanabe, presidente de la Federación Internacional de Gimnasia, bromeó en 2015, tras una reunión con Fujitsu, con que los robots serían los encargados de las puntuaciones en los Juegos Olímpicos de Tokio de 2020.

Esta edición de los JJOO incluirá reconocimiento facial para identificar a los atletas, por lo que lo propuesto por Watanabe sonaba más factible de lo que él pensaba, y sirvió de acicate para que la compañía afrontara este reto.

Así, en 2017 se llevaron a cabo las primeras pruebas durante una competición, que sirvieron para afinar la tecnología. Y, tras dos años de pruebas, la Federación anunció finalmente hace unas semanas que la tecnología de Fujitsu se usará de manera oficial en los campeonatos mundiales de este deporte que tendrán lugar el próximo año, así como en las pruebas clasificatorias que tendrán lugar a lo largo de este 2019.

Los robots no serán, finalmente, los responsables de puntuar, pero sí una ayuda fundamental para los jueces humanos. Fujitsu ve ahora abrirse un nuevo gran mercado de negocios en torno a esta tecnología: aplicaciones que ayuden a los gimnastas a entrenar y medir sus progresos, o para que los aficionados dispongan de información actualizada sobre los resultados de sus gimnastas favoritos, etc.


La IA ayuda a convertir en palabras el pensamiento, y el siguiente paso será dar voz a personas que perdieron el habla

$
0
0

La IA ayuda a convertir en palabras el pensamiento, y el siguiente paso será dar voz a personas que perdieron el habla

Muchas personas a lo largo y ancho del mundo viven habiendo perdido la capacidad de hablar, ya haya sido como consecuencia de un accidente vascular o de alguna enfermedad; condenados a que las palabras que resuenan en su cabeza se queden ahí atrapadas.

La mayoría no tienen opción de comunicarse más que a través de sintetizadores de voz manejados con movimientos limitados, como le ocurría al cosmólogo Stephen Hawking. Pero la tecnología puede a ayudarles a cambiar eso en breve.

De los electrodos al sintetizador de voz

Hasta ahora se había logrado dar un paso bastante reseñable: que personas con parálisis profunda pudieran responder con un 'sí' o un 'no'.

Ahora, tres equipos de investigadores han logrado dar pasos importantes en los últimos meses para convertir los datos en crudo captados por redes de electrodos (implantadas quirúrgicamente en el cerebro)** en palabras y oraciones** computerizadas que, en algunos casos, resultaban inteligibles para los oyentes humanos.

No echemos las campas al vuelo: ninguno de los tres equipos logró que las computadoras verbalizar el discurso tal y como lo habían pensado los sujetos del estudio.

Los sujetos de estudio fueron sometidos a pruebas (escuchar grabaciones de audio, pensar en silencio, leer en voz alta, etc) mientras los investigadores monitorizaban la corteza auditiva del cerebro, que permanece activa tanto cuando escuchamos como cuando hablamos.

El equipo dirigido por Nima Mesgarani en la Univ. de Columbia hizo uso de datos captados en cinco personas con epilepsia: una red neuronal analizó los datos medida que los pacientes escuchaban a personas que nombraban dígitos de cero a nueve.

La IA fue luego capaz de reconstruir las palabras con un 75% de precisión. El experimento realizado por el equipo del neurocirujano de la UCLA Edward Chang se tradujo en varias frases que fueron identificadas correctamente por 166 personas en un 80% de los casos.

No es nada fácil "escuchar al cerebro"

Pero, para mejorar esos resultados, se enfrentan a tres problemas:

  • El modo en que estas señales se traducen en sonidos del habla varía de una persona a otra, por lo que la IA debe estar entrenada para cada individuo en particular.

  • La IA funciona mejor cuando se le alimenta con datos extremadamente precisos, lo que explica que haya que abrir abrir el cráneo para instalar los electrodos. Pero para los investigadores sólo es posible realizar ese experimento aprovechando intervenciones para solventar dolencias previas (tumores cerebrales, esquizofrenia, etc).

  • ¿Cómo funcionarán estas IAs cuando se trabaje directamente con personas que no pueden hablar? Las señales cerebrales que no están acompañadas de un sonido externo que coincida con la actividad cerebral pueden ser difícil de interpretar para una computadora (por ejemplo, se dificulta reconocer donde empieza y termina esta 'habla interna').

Decodificar el discurso pensando requerirá dar "un gran salto", en palabras de Gerwin Schalk, neurólogo del Centro Nacional de Neurotecnologías Adaptativas en el Departamento de Salud del Estado de Nueva York.

Pero, si la empresa tiene éxito, se espera no ya sólo que logren recrear las frases que piensen, sino también poder captar y expresar otros aspectos del habla, como el tono o la inflexión.

Vía | Science

Finlandia quiere que la inteligencia artificial ocupe el lugar de Nokia: su apuesta es formar al 1% de la población

$
0
0

Finlandia quiere que la inteligencia artificial ocupe el lugar de Nokia: su apuesta es formar al 1% de la población

Finlandia ha puesto en marcha un gran experimento destinado a reconvertir la economía del país con la vista puesta en la inteligencia artificial.

El planteamiento de la idea es sencillo: coger al 1% de la población finesa (en torno a 55.000 personas) y enseñarles fundamentos de inteligencia artificial. Y, a partir de ahí, ir ampliando su número en los próximos años.

Esta idea dio sus primeros pasos por impulso del Departamento de Informática de la Univ. de Helsinki bajo la forma de un curso online de acceso gratuito. Pero, tras la promoción dada por su creador (el profesor Teemu Roos) y la empresa Reaktor, sus aliados en esta iniciativa, tanto el gobierno como numerosas empresas privadas se han subido al barco.

El sector público y el privado, volcados con el 'Desafío IA'

A mediados de diciembre más de 250 compañías habían anunciado su participación en el denominado "Desafío IA".

El fabricante de papel Stora Enso, por ejemplo, se comprometió a capacitar en este campo a 1.000 de sus empleados, mientras que empresas tecnológicas como Elisa y Nokia anunciaron que harían lo propio con toda su plantilla, lo mismo que instituciones públicas como el Ministerio de Exteriores o la Agencia Tributaria.

Entre estos apoyos y el interés por parte de las personas de a pie, según los datos de Reaktor unas 10.500 personas (más de 6.300 de ellas de Finlandia), se habían graduado del curso a mediados de diciembre. Y eso a pesar de que hasta noviembre no se lanzó una versión en finés del curso.

Ville Valtonen, jefe de marketing de Reaktor, explica que

"las compañías que participan en el 'Desafío IA' se han comprometido a capacitar a su personal en los aspectos básicos de AI, con nuestro curso o con cualquier material que consideren adecuado".

La cuestión es que estas clases no pretenden formar a una nueva generación de programadores de primer nivel (ni siquiera requiere de conocimientos de programación), sino

  • Introducir a la ciudadanía en los conceptos básicos de la inteligencia artificial (redes neuronales, aprendizaje automático...).
  • Crear conciencia sobre las oportunidades y los riesgos que representa esta tecnología.
  • Capacitar a la sociedad para que decida por sí misma cuánto y cómo quiere que invierta su gobierno en este campo.

Finlandia confía en que la IA le permitirá superar el actual declive de Nokia

El gobierno finés, que está sufriendo los efectos del declive de su campeón tecnológico nacional, Nokia, sabe que su país tendrá que hacer un esfuerzo extra para mantener la competitividad de su economía frente a la feroz presión que ejercen superpotencias como Estados Unidos y China.

En Helsinki saben que no tiene sentido intentar competir con éstas en el campo del desarrollo de tecnología básica de inteligencia artificial, pero según Mika Lintilä, ministro de economía de Finlandia, sí confían en ocupar el liderazgo en otro nicho: el de las aplicaciones prácticas de la IA.

"Nunca tendremos tanto dinero como para ser líderes en inteligencia artificial. Pero otra cosa es cómo lo usemos".

Sin embargo, los planes de Finlandia, que hace año y medio se convirtió en el primer país de la UE en poner por escrito su estrategia nacional de IA (PDF), van más allá, y pasan por:

  • Aprovechar que este verano asumirá la presidencia de turno de la UE para impulsar cambios regulatorios.

  • Implementar una estrategia para convencer a las pequeñas y medianas empresas finesas de que apuesten por la IA.

  • Asociarse con vecinos como Estonia y Suecia para convertirse en el gran laboratorio de pruebas de IA de Europa (ya tiene programados ensayos transfronterizos de viajes de barcos autónomos por el mar Báltico).

Vía | Politico

Cámaras equipadas con inteligencia artificial permitirán 'cazar' furtivos en un centenar de parques naturales de África

$
0
0

Cámaras equipadas con inteligencia artificial permitirán 'cazar' furtivos en un centenar de parques naturales de África

Si te piden que pienses en una animal que puedas perder de vista, sin duda el elefante africano no será el primero que te venga a la mente. Pero no sería tan difícil que te pasara si fueras uno de los tan sólo 150 guardabosques que patrullan las llanuras de la reserva del Serengeti (Tanzania), que ocupan una extensión similar a la de toda Bélgica.

Por supuesto, la desprotección generada por este déficit de vigilancia ha sido aprovechada durante años por los cazadores furtivos para esquilmar impunemente la población de elefantes, y de otras especies igualmente en peligro de extinción.

Según la organización sin ánimo de lucro Resolve,

"un elefante muere cada 15 minutos por un cazador furtivo, a un ritmo de aproximadamente 35.000 elefantes por año. En una década, los expertos predicen que no habrá más elefantes [...] y otros grandes mamíferos también están en peligro por los furtivos"

TrailGuard AI, tecnología Intel para detectar eficazmente a los furtivos

Pero Resolve ha puesto ahora en marcha un proyecto destinado a solventar esta situación utilizando cámaras equipadas con inteligencia artificial en los senderos más usados por los furtivos. El dispositivo presentado hace unos días para Resolve ha sido bautizado como TrailGuard AI y utiliza chips de visión Movidius Myriad 2 VPU.

Estos chips, fabricados por Intel, permiten detectar la presencia de vehículos e identificar las distintas especies animales (incluida la nuestra) que pasan por su campo de visión, gracias al uso de redes neuronales profundas. Si se detecta alguna actividad sospechosa, los TrailGuard AI avisan a los guardias y les envían las imágenes capturadas.

No es el primer dispositivo de este tipo lanzado por Resolve, pero sí es el primero del grosor de un dedo humano (los anteriores eran bastante voluminosos), con una batería capaz de durar año y medio, frente a las aproximadamente 5 semanas del modelo anterior, lo que requería mucho más trabajo por parte de los guardias y aumentaba las probabilidades de que los furtivos detectaran la localización del dispositivo.

Edge computing, una tecnología clave para proteger nuestros ecosistemas

Pero, sobre todo, lo que marca la diferencia en estos nuevos dispositivos es que son los primeros dotados con inteligencia artificial, lo que evitar los numerosos falsos positivos de los antiguos sensores de movimiento, y permite así que los guardias dispongan de más tiempo para realizar sus patrullas.

National Geographic Society, colaborará con la Fundación Leonardo DiCaprio y con Resolve en implementar esta solución no sólo en el Parque Nacional de Serengeti, sino también en otro centenar de reservas africanas durante el próximo año, y tienen en mente expandir esta solución en el futuro a otras áreas tropicales del mundo.

Fabien Laurier, vicepresidente de National Geographic Labs, afirma que el uso de edge computing (la utilización de IA en los dispositivos sin necesidad de recurrir a una nube) "tiene el poder de revolucionar la forma en que protegemos nuestra herencia natural".

Vía | Intel

Investigo en robótica e inteligencia artificial y así intento que no sea usada para el mal

$
0
0

Investigo en robótica e inteligencia artificial y así intento que no sea usada para el mal

Se llama Laurence Devillers y es profesora de informática aplicada a las ciencias sociales en la Universidad de La Sorbona (París). Investiga en aprendizaje automático, modelado de emociones e interacción entre personas y máquinas en el CNRS, lo que viene a ser el CSIC español. Además es miembro de la Comisión francesa para la reflexión sobre la Ética de la Investigación en Ciencia y Tecnología digitales (CERNA).

Con este currículo, no es de extrañar que gran parte del trabajo de Devillers se centre en analizar y afrontar los aspectos éticos del desarrollo de robots afectivos y de la interacción social con máquinas , incluidos entre ellos la seguridad, la privacidad y la fiabilidad del comportamiento del robot. "Estos aspectos son cada vez más discutidos. Es necesario que el desarrollo científico y tecnológico se combine con un pensamiento ético más amplio para asegurar la armonía y la aceptabilidad de su relación con los seres humanos", asegura en conversación con Xataka a raíz de su visita a España para participar en la conferencia 'Inteligencia artificial y emocional' organizada por el Instituto Francés de España.

En su grupo de investigación en el CNRS -el Laboratorio de Informática para la Mecánica y las Ciencias de la Ingeniería, LIMSI- su objetivo es entrenar a máquinas 'inteligentes' para que sean capaces de lidiar con las dimensiones afectivas y sociales en la interacción con los humanos que viven en un espacio físico y social. Esto puede tener aplicaciones en ámbitos como la salud y los cuidados, la seguridad, la educación o el entretenimiento.

Robot Afectivo

Los principales temas de estudio en esta área son la identificación de las emociones, la ansiedad y las pistas sociales en la interacción entre humanos y robots, basándose en indicios verbales y no verbales y en el perfil del usuario. La científica critica que en este ámbito de investigación se ha descuidado el papel de la voz y el habla, en favor de otros aspectos como las expresiones faciales o los gestos. "Existe una tendencia dentro del área de la computación orientada a las emociones a utilizar datos emocionales muy exagerados y antinaturales presentados por los actores. Esta estrategia no es efectiva, ya que las formas de expresión que ocurren en las interacciones naturales son sustancialmente diferentes de aquellas que generan los actores", explica.

Su equipo afronta el desafío de encontrar, anotar y analizar bases de datos con datos emocionales de la vida real. Algo que su grupo ha hecho a partir de consultas financieras, llamadas de atención médica e interacciones entre humanos y robots. Mediante sistemas de aprendizaje automático de detección de emociones han logrado identificar distintos niveles de miedo, de enfado, de tristeza y de sentimientos positivos.

Entre sus principales conclusiones: para que la respuesta de un robot social afectivo sea relevante no debe tener en cuenta solo las emociones puntuales: también debe tener una representación del perfil emocional y de los patrones de interacción del usuario. Así podrán, por ejemplo, predecir qué comportamiento específico tiene más posibilidades de satisfacerle.

Manipulación

¿Y qué tiene todo esto que ver con la ética? Para empezar, el investigación se circunscribe a algo tan sensible como las emociones. Para seguir, el acceso y detección de esta información, la recopilación de datos y su uso y análisis plantea dilemas sobre cuál es la forma adecuada -no solo legal- de llevar a cabo el proceso. Y, por supuesto, la aplicación de sistemas basados en el conocimiento del perfil emocional de los usuarios a un nivel profundo plantea la duda de hasta qué punto dichas tecnologías pueden usarse para manipular a las personas.

De hecho, la 'economía conductual' muestra que, efectivamente, es posible moldear la conducta de los individuos incluso de formas tan simples como disminuir en un solo céntimo el precio de un producto para que en vez de costar 300 euros cueste 299. Tomamos decisiones supuestamente racionales no lo son tanto, ya que están condicionadas por 'sesgos cognitivos' de los que no somos conscientes.

Esto lo que han demostrado a lo largo de la historia premios Nobel como Daniel Kahneman, el primer no economista y psicólogo nombrado como Nobel de Economía. Hace apenas un año, le siguió Richard Thaler, también pionero en el campo de la economía del comportamiento. Devillers cita una de las frases de Thaler en su superventas Un pequeño empujón: El impulso que necesitas para tomar mejores decisiones sobre salud, dinero y felicidad: "Si una opción se designa como la opción 'por defecto', atraerá una gran cuota de mercado. Este tipo de opciones actúan como poderosos empujones".

Visto así, parece obvio, ¿verdad? Y, si es tan sencillo como parece, (a veces lo es) los sistemas afectivos -dice la investigadora- podrían manipularnos detectando nuestras emociones y embaucándonos para que compremos algo o actuemos de una determinada manera en base a esos sesgos cognitivos que todos tenemos.

Humanoides traicioneros

Un ejemplo de lo que Devillers considera "engañoso" y potencialmente manipulador en el ámbito de la robótica son robots humanoides como Sophia (Hanson Robotics), una robot conocida por haber obtenido la ciudadanía en Arabia Saudita (donde goza de más derechos que las mujeres reales que viven allí). La científica lamenta que Sophia haya sido incluso presentada oficialmente en la ONU como 'ponente' en un evento sobre inteligencia artificial y desarrollo sostenible, contribuyendo así a la pantomima.

"Estoy en contra de estos robots, que se diseñan con la intención de reemplazar a los seres humanos", afirma Devillers. Critica también otros productos disponibles en el mercado asiático como una asistente virtual femenina en forma de holograma que se comporta como una novia y espera en casa a su 'novio' (el usuario que ha comprado el producto) con ropa sexy y palabras dulces para que no se sienta solo.

Además del hecho de situar a la mujer como objeto cuyo único fin es complacer al hombre, la científica ve un creciente riesgo de aislamiento social. La visión de una sociedad compuesta por individuos que renuncian a relacionarse con las personas a cambio de la recompensa rápida -aunque efímera y superficial- que proporcionan artículos como la asistente virtual aterra a Devillers. Por eso considera que debe establecerse una regulación internacional que ponga coto a este tipo de productos, entre los que incluye también a los robots sexuales.

La investigadora insiste en que "hay que razonar la tecnología". No dice que sea incorrecto que haya robots que se parezcan a los humanos pero cree que esto puede hacerse sin recurrir a androides o a clones. Otros científicos de referencia en inteligencia artificial como Stuart Russell también están en contra de esta tendencia, y proponen soluciones como una ley que establezca que todos los robots deban tener cuatro patas. Algo que -dice Russell- es mejor desde un punto de vista práctico, ya que proporciona estabilidad y permite cargar más peso.

Ética por diseño

Los frentes abiertos son muchos y Devillers asegura que "es urgente trabajar en esto". ¿Cómo?

Desarrollando máquinas y aplicaciones que sean 'éticas por diseño'. Es lo que trata de hacer la científica en su proyecto más actual: Bad Nudge-Bad Robot?. Plantea el hecho de que los objetos conectados, específicamente agentes conversacionales como Google Home o Amazon Echo, aportan una nueva dimensión a la interacción y podrían convertirse en un medio para influir en las personas. "Actualmente no están regulados, ni están siendo evaluados, y su funcionamiento es una caja negra", afirma la científica.

A través del estudio de los 'nudges' -es decir, las técnicas para modificar el comportamiento de las personas de las que habla Richard Thaler- el grupo de Devillers y un equipo de Economía Digital del laboratorio RITM de la Universidad de París-Sur busca resaltar la importancia de la ética en la creación de estos objetos. Ponen, además, el acento en los desarrolladores: "Los robots no tienen personalidad real, son chapa. No tienen deseos, ni placer, ni voluntad, ni ética; son los diseñadores los que la introducen en ellos", afirma Devillers.

Laurence con robot

Un ejemplo claro de los dilemas a los que se enfrentan los ingenieros está en el desarrollo de los vehículos autónomos y el conocido experimento de la 'Máquina de la moral' (Moral machine) del Instituto Tecnológico de Massachusetts (MIT). Dicho experimento -como explica Javier Jiménez en este artículo en Xataka- rescata el 'dilema del tranvía' planteado por la filósofa Philippa Foot en 1967 para tratar de resolver la cuestión de a quién salvar en caso de accidente inevitable.

Ante la dificultad -o práctica imposibilidad- de consenso, Devillers cree que lo mejor es que el coche decida al azar. "No creo que pueda haber una responsabilidad única ni del diseñador, ni de la máquina, ni de la persona, en caso de que esta tenga la posibilidad de tomar el control", afirma. Cree que esto tampoco será un factor diferencial entre unas compañías de automoción y otras sino que todas formarán parte del sistema de la ciudad y se regirán por él. Señala, además, que con estos vehículos "ganaremos bienestar, perderemos estrés al volante y habrá muchas menos muertes".

Estas y otras tantas derivadas de la inteligencia artificial (que en realidad no es tan inteligente) ponen de manifiesto -opina la investigadora- la necesidad de reforzar la deontología de los investigadores y desarrolladores , que respondan a mandatos éticos. "Debemos ser capaces de tener valores comunes. Si no lo intentamos, estaremos rodeados de objetos que nos manipularán al servicio de sus soberanos", asegura la científica, que cita el ejemplo del Reglamento General de Protección de Datos europeo (RGPD) como "un gran paso adelante". "Hay que regular -en pro de la transparencia- para evitar una gobernanza antidemocrática", sostiene.

La investigadora cree que esta conversación se tiene que dar en la esfera pública e incluir en ella a filósofos, antropólogos y sociólogos. "Es urgente pensar el impacto de todo esto en el nivel de conciencia social, de capacidad de denuncia y de libertad para usar los objetos sin ser manipulados", asegura. "¿Qué es lo que queremos mantener? No hablo de poner puertas al campo sino de decidir en qué sociedad queremos vivir", añade.

Devillers cree que esta carta se va a jugar en Europa. Y que por el camino, además, no solo se crearán robots y sistemas de inteligencia artificial más sofisticados sino que podremos analizar quiénes somos como seres humanos y sociales, y conocernos mejor a nosotros mismos.

Intel colabora con Facebook para desarrollar un chip de IA con menores requisitos de hardware y energía que la competencia

$
0
0

Intel colabora con Facebook para desarrollar un chip de IA con menores requisitos de hardware y energía que la competencia

Intel ha desembarcado en el Consumer Electronics Show 2019 con varias novedades; la última por ahora es el anuncio de que está colaborando con Facebook para desarrollar un nuevo chip (bautizado como NNP-I) que, según la compañía, será capaz de ejecutar algoritmos pre-entrenados de aprendizaje automático con menores requerimientos de hardware y de consumo energético que el resto de alternativas presentes en el mercado.

Según el comunicado de la compañía, "este nuevo tipo de chip está dedicado a acelerar la inferencia para compañías con altas cargas de trabajo y se espera que entre en producción este año".

Naveen Rao, vicepresidente del grupo de productos de IA de Intel, afirmó que el chip también superaría a su competencia en rapidez de cálculo, aunque no proporcionó datos específicos de rendimiento. Aclaró, por otra parte, que el chip sería compatible con los principales paquetes de software de IA del mercado.

Esta colaboración (que desmiente la ruptura sobre la que se rumoreó hace unos meses) resulta mutuamente beneficiosa para Facebook e Intel. Por un lado, la empresa de Zuckerberg conseguiría reducir el costo de la amplia gama de tareas de aprendizaje automático que realiza su plataforma (detección de contenido prohibido, etiquetaje de personas en las fotos, etc).

Naveen Rao Naveen Rao (Intel)

Intel ve a Nvidia como el (lejano) enemigo a batir

Por otro, a Intel le acerca a una posición en la que podrían llegar a alcanzar a Nvidia, tras años de solitario liderazgo de la tecnológica de Santa Clara en este campo; un cambio de estrategia que la compañía inició en 2016 con la adquisición de la startup Nervana Systems.

Se cree que el NNP-I se basará en la tecnología Intel Turbo Boost para ofrecer una plataforma basada en CPUs que represente una alternativa solvente a las GPUs (como las de Nvidia) que copan hoy el mercado.

Rao saca pecho a la hora de reivindicar las fortalezas de su compañía: "la experiencia de Intel reside en la optimización del silicio, es algo que hacemos mejor que nadie".

Pero el salto de Intel puede llegar demasiado tarde, dado que varias compañías han anunciado en los últimos meses que están trabajando en la fabricación de sus propios chips: la británica Graphcore, las chinas Cambricon , Horizon Robotics y Bitmain, y las omnipresentes Google y Amazon desde EE.UU.

Paralelamente a este chip, Intel anunció que estaba trabajando en un procesador para el entrenamiento de redes neuronales, del que se sabe poco más al margen de su nombre en código ("Spring Crest") y que se lanzará en algún momento de este año.

Oro, incienso, mirra e inteligencia artificial… Los Reyes Magos también se apuntan a regalar IA

$
0
0

Oro, incienso, mirra e inteligencia artificial… Los Reyes Magos también se apuntan a regalar IA

Una vez más, los Reyes Magos han dejado sus regalos durante la madrugada del 6 de enero. Cada año, los juguetes son un detector de los avances tecnológicos que se van sucediendo durante los últimos meses. De todas las tendencias de 2018, la IA es una de las más persistentes y robustas, capaz de influir en los deseos de los más pequeños a la hora de escribir la carta a los Reyes. Si sus padres ya disfrutan de sus posibilidades en la última hornada de teléfonos Huawei (Huawei P20 Pro o Huawei Mate20 Pro, por ejemplo), por qué no van a hacerlo ellos con los dispositivos que tengan a su alcance.

LA IA que centra este artículo está más cerca de la faceta educacional que de la lúdica en muchos casos. Compañías como BQ o LEGO, por poner algunos ejemplos, cuentan con kits para construir, programar, o ambas cosas a la vez, robots más o menos complejos. La introducción de asignaturas de programación en la escuela desde edades tempranas combina juego y aprendizaje por igual.

En otros casos, tenemos juguetes esencialmente lúdicos que integran “inteligencia artificial” como atractivo principal para potenciar la variante lúdica de los juguetes. Un ejemplo notable es el de Hot Wheels AI, que usa la inteligencia artificial para activar un coche contra el que competir cuando no tenemos a ningún contrincante de carne y hueso para echar alguna que otra carrera.

La IA como juguete

Dejando de lado el "hype" alrededor de la IA, encontramos que ya se regalaban juguetes con inteligencia artificial en el pasado. Los juegos de ajedrez electrónicos tienen décadas de antigüedad. Incluso hoy en día se siguen regalando este tipo de juguetes, especialmente para que los niños aprendan. Los programas de ajedrez y las apps para tabletas y smartphones tienen mucho más nivel en general, pero tener un tablero y piezas ayuda a afianzar las reglas de este deporte.

En los videojuegos, incluyendo los de hace décadas, también había IA. Básica y girando alrededor de comportamientos fijos basados en algoritmos simples. Ahora, otras IA más complejas empiezan a llegar a los juguetes en el mundo físico más allá del software, añadiendo al hardware este componente "inteligente".

Product Overview Image Tcm987 122556

Los juegos de carreras, sin ir más lejos, tienen en el Hot Wheels AI un buen ejemplo, llevando la inteligencia de los juegos de carreras al mundo físico del radiocontrol. Los coches con IA interactúan con la pista de forma autónoma, mientras que el otro coche es pilotado por un jugador humano.

Otra variante lúdica de la IA está en los asistentes de voz. Alexa de Amazon o Google Home de Google son también un buen compañero de juegos. Especialmente Alexa. Con Alexa podemos crear interacciones lúdicas como la de pedir al altavoz que cuente un cuento o un chiste, o cante una canción, o simplemente dialogue con nosotros un rato. También podemos pedirle que lea un libro de la biblioteca de Amazon Kindle. Además, ya hay juegos físicos que usan Alexa como otro jugador más o como intermediario para controlar, sin ir más lejos, un robot como Lynx.

lynx de amazon

También ya hay en el mercado títulos que usan Alexa para ofrecer consejos, poner música o efectos de sonido o locuciones de voz que acompañan a juegos físicos de tipo "escape room" o de preguntas y respuestas. En España aún no son populares, porque Alexa acaba prácticamente de llegar. Pero son una tendencia fuerte como juguetes que usan la IA para añadir elementos lúdicos.

La era de los robots

Otro tipo de juguete inteligente que encontramos cada vez con más frecuencia en las cartas de los Reyes Magos son los robots. De nuevo, no son realmente una novedad. En su momento, propuestas como el Sony Aibo estuvieron de moda, aunque llegaron antes de tiempo. Ahora el Aibo ha vuelto, al mismo tiempo que decenas de robots humanoides o que imitan a nuestras mascotas. Eso sí, Aibo está disponible únicamente en EEUU y Japón, de momento.

sony aibo

La inteligencia que incorpora es más bien "reactiva". Tiene comportamientos programados de antemano que se exhiben de un modo más o menos complejo dependiendo de los estímulos a los que les enfrentemos. Tienen sensores de movimiento o táctiles que reaccionan ante, por ejemplo, caricias.

También pueden reaccionar ante pelotas diseñadas para que estimulen a los robots, o ante comida virtual, como sucede con los Pleo, unos dinosaurios que, además, aprenden de sus dueños y modifican el comportamiento de un modo dinámico, aunque dentro de los límites de una IA básica.

Pleo Photo1 Full

Otros robots que encontramos con más frecuencia son los programables. El Robotron Mini Visual Block Programmable es un ejemplo, programable mediante programación basada en bloques. Dash y Dot son otros robots programables pensados para introducir en este mundo a los más pequeños. De este modo se puede aprender a dotar de comportamientos inteligentes a los dispositivos de hardware de un modo lúdico.

El Robosapiens es otro clásico de los robots lúdicos programables, tanto a nivel de macro como de app y con acciones preprogramadas como la de lucha de Kung Fu.

Además de ser compañeros de juegos, los robots pueden adoptar tareas diversas. Así, no es extraño que haya robots que integren funciones de vigilancia usando los micrófonos y las cámaras como sensores para alertar a los usuarios acerca de posibles intrusiones o incidentes en el hogar.

Roomba

Son funciones que ya vemos implementadas en algunos dispositivos pensados para adultos, como los robots aspiradores que mapean la casa y limpian allí donde detectan suciedad. Han sido uno de los regalos de Reyes con más eco mediático. Estos robots en algunos casos también hacen las veces de vigilantes, así como instrumentos de juego para mascotas (como evidencia los muchos vídeos virales protagonizados por gatos subidos a un robot aspirador, por ejemplo).

Los kits de montaje

Además de los robots ya montados, existen opciones en las que hay que montar también el robot o el ingenio mecánico que decidamos construir a partir de las piezas disponibles. Es el caso de los kits Lego WeDo para los más pequeños, o Lego MindStorms para los más mayores.

Product Track3r Mainstage

Lego MindStorms Education EV3 es uno de los ejemplos más completos, con todo tipo de sensores y motores para construir objetos tanto prediseñados como otros que queramos inventar. Con este kit se puede construir un robot capaz, incluso, de resolver el cubo de Rubik.

Zowi G Frontal 4 1 1 2

Dentro de este capítulo tenemos también a otros fabricantes como BQ con productos como Zowi, un robot que está pensado para ayudar a enseñar programación a los más pequeños. Reacciona ante estímulos a partir de sus sensores, y se puede programar a través de un lenguaje de bloques llamado Bitbloq. También de BQ es la caja Zum Box, con todo lo necesario para ensamblar componentes motorizados, sensores y procesadores Arduino para crear dispositivos programables mediante Bitbloq.

IA, un juguete muy serio

La IA no solo está calando entre los usuarios de smartphones como los que comercializa Huawei. Elementos tan cotidianos como los juguetes también se están mimetizando con la inteligencia artificial para ofrecer experiencias lúdicas novedosas y naturales.

De momento, muchos de los juguetes siguen necesitando de un smartphone o una tableta para funcionar, aunque la tendencia es la de ir llevando esta IA a los propios juguetes a través de la integración de procesadores paulatinamente más capaces. No es un camino exento de obstáculos, como los problemas de seguridad que hay que afrontar para evitar que los juguetes puedan ser hackeados para lograr el acceso a sensores tales como las cámaras o los micrófonos que incorporan.

Ni siquiera plataformas como Alexa se libran de este tipo de problemas, aunque es más fuerte la IA como tecnología que los problemas concretos que puedan ir surgiendo durante su implementación en dispositivos tales como los smartphones, sensores o los propios juguetes. El año próximo (si nos portamos bien) volveremos a tener regalos en Reyes y a la IA como una de las protagonistas de nuestra carta a sus Majestades de Oriente.

Fotos | iStock, Hot Wheels AI de Hot Wheels, Robot Lynx de Amazon, Sony Aibo de Sony, Dinosaurio Pleo de Pleo, LEGO Track3r de LEGO, Robot Zowi de BQ, Aspirador Roomba de iRobot.

Google se ha propuesto enseñar a una IA a usar webs de reservas de vuelos

$
0
0

Google se ha propuesto enseñar a una IA a usar webs de reservas de vuelos

Entrar en una web de reserva de vuelos. Buscar con la vista el formulario de búsqueda. Seguir las instrucciones (expresadas en lenguaje natural) Mover el cursor y hacer clic. Repasar las opciones y seleccionar la más barata. Mover el cursor y hacer clic. Reservar. Parece sencillo, sin duda. Pero para una inteligencia artificial puede no serlo tanto.

Podemos intentarlo haciendo que aprenda a partir de ejemplos humanos, pero eso resulta poco escalable: si queremos que sea capaz de realizar su misión en una amplia variedad de webs de reserva de vuelos, la mejor estrategia es apostar por el aprendizaje por refuerzo (como el usado para enseñar a jugar a AlphaZero Go), una técnica que permita a la IA aprender autónomamente, mediante miles o millones de procesos de prueba y error.

Pero en un caso como el que se nos plantea aquí, la variedad de elementos a contemplar y el abanico de acciones a realizar crece exponencialmente. Por ello, un equipo de investigadores de Google se planteó el mejor modo de resolver este reto: el resultado lo podemos encontrar en el artículo académico, recientemente publicado, 'Learning to Navigate the Web':

"Aunque los enfoques más recientes mejoran la tasa de éxito en entornos relativamente simples con la ayuda de demostraciones humanas para guiar la exploración, aún fallan en entornos donde el conjunto de posibles instrucciones puede llegar a millones".

"Hemos abordado los problemas mencionados desde una perspectiva diferente, proponiendo enfoques de aprendizaje reforzado guiado que pueden generar una cantidad ilimitada de experiencia para que una IA aprenda".

Redes neuronales para entender la estructura de las webs

Los investigadores capacitaron a una red neuronal para comprender la estructura de las páginas web, lo que le permite navegar por ellas y conocer las opciones que éstas le ofrecen. La clave reside en desarrollar un modelo que permita a la red neuronal dar soluciones a un problema con numerosas variables:

"Como ejemplo, en el entorno de reserva de vuelos, el número de instrucciones / tareas posibles puede aumentar a más de 14 millones, con más de 1700 palabras de vocabulario y aproximadamente 100 elementos web en cada episodio".

Este paper viene a ser la secuela de este otro publicado hace un año por investigadores de la Universidad de Stanford, en el que se venía a probar la capacidad de una computadora para aprender a realizar clics de ratón y pulsaciones de teclado para completar tareas en un sitio web, recurriendo a una red neuronal basada en demostraciones humanas.

Sin embargo, al carecer de este último recurso, los investigadores de Google han diseñado una propuesta basada en el uso de dos redes neuronales: una, 'INET', analiza la estructura del documento y propone los siguientes pasos que debe dar su compañera, 'Qweb', la responsable de ejecutar las pulsaciones y clics.

Los investigadores intentaron innovar también en otros aspectos frente a intentos previos como el de Stanford, y utilizaron una técnica llamada 'aprendizaje curricular' para fragmentar las tareas en otras más pequeñas y ayudar así a la red neuronal a superar los múltiples pasos de un formulario web.

También recurrieron a la 'codificación superficial' para que la IA comprendiera mejor el contenido de la web: así, el campo del formulario con el listado de aeropuertos no es, a ojos de la red neuronal, una mera lista de nombres, sino que es capaz de percibir su sentido por el contexto en que se encuentra dentro de la estructura de la web.

Según los investtigadores, esta clase de innovaciones impiden que la IA incurra en comportamientos de navegación frustantes como el de hacer clic en el botón de envío del formulario como primer paso para obtener la menor recompensa negativa posible.


La unión de fitomejoramiento e inteligencia artificial ayuda a desarrollar alternativas a los cultivos transgénicos

$
0
0

La unión de fitomejoramiento e inteligencia artificial ayuda a desarrollar alternativas a los cultivos transgénicos

Si no has oído hablar nunca del 'fitomejoramiento', debes saber que hacer referencia a un conjunto de técnicas que, mediante el cruce planificado de distintas variedades de una misma especie vegetal, buscan mejorar sus características genéticas y lograr así plantas más resistentes y productivas... o con mejor sabor.

Aunque su efectividad está más que probada, optar por el fitomejoramiento tiene un problema: se basa en crear una amplia base de combinaciones que más tarde han de seleccionarse, recombinarse y volver a seleccionarse. Es efectivo, sí, pero requiere mucho tiempo.

Por eso, en muchos lugares del mundo (Europa no está entre ellos) esta técnica se ha dejado de lado en favor de la modificación genética, que no sólo destierra gran parte de la aleatoriedad del proceso (permitiendo un mayor control de los rasgos de la variedad resultante), sino que además permite usar genes de especies ajenas a la que se pretende mejorar.

No vamos a repasar ahora toda la polémica que suele rodear a los OGM (organismos modificados genéticamente); baste decir que son muchas las empresas que prefieren centrarse en mejorar el viejo proceso de fitomejoramiento. Y la tecnología tiene mucho que decir al respecto, sobre todo la inteligencia artificial.

Sensores subterráneos y predicción del desarrollo de las raíces

Hi Fidelity Genetics (HFG), una compañía estadounidense que acaba de recaudar 8,5 millones de dólares para seguir avanzando en lo que denominan como 'mejoramiento computacional de cultivos', el uso de sensores para evaluar los entornos locales, y de análisis predictivo para respaldar programas de mejoramiento de cultivos a medida para una región en particular.

El sistema inalámbrico de sensores de proximidad capacitivos desarrollado por HFG se denomina RootTracker y se enfoca en la monitorización de las raíces: lo que hace la compañía es mapear las raíces de cada planta, creando un modelo estadístico 3D de éstas a lo largo de todo su ciclo de crecimiento.

hifidelitygenetics.com Vía hifidelitygenetics.com

"HFG está recolectando y analizando miles de millones de combinaciones de datos en nuestras plantas de maíz patentadas" a través de RootTracker. Dichos datos se combinan con otros sobre el tipo de suelo, el clima y las plagas, y se introducen posteriormente en Luther, la plataforma de inteligencia artificial de HFG.

Este software es el responsable de predecir qué cruces concretos producirán una planta híbrida cuyas raíces cuenten con las características óptimas para su cultivo.

Según Spencer Maughan, cofundador de HFG, además de la comercialización de las semillas resultantes, su compañía también está explorando la posibilidad de monetizar su plataforma de inteligencia artificial, como una modalidad de SaaS para otras empresas del sector.

Seleccionando las mejores combinaciones de genes

Equinom es otra compañía, en este caso israelí, que en octubre recaudó 4 millones de dólares para un proyecto similar. Aunque, en este caso su atención no se localizaba en las raíces del maíz, sino en las proteínas de las leguminosas, especialmente guisantes: para 2021 tienen previsto comercializar cultivos con un 35%-55% más de proteínas que las variedades comerciales, según su CEO, Gil Shalev.

Equinom también basa su método en el uso de ciencia de datos y software de inteligencia artificial. Partiendo de la base de que cada rasgo de una planta (en este caso, la calidad de sus proteínas) viene determinado simultáneamente por múltiples genes, la tecnología de Equinom ayuda a la compañía a descubrir las distintas regiones del genoma que controlan los rasgos de los cultivos.

Luego, sólo tienen que seleccionar las mejores combinaciones que permitan aumentar la cantidad de proteínas sin poner en riesgo otros datos: "Al ejecutar millones de combinaciones genómicas, tenemos la capacidad de diseñar un código genético optimizado".

Shalev no está de acuerdo, además, con que la mejora computacional de cultivos esté por detrás de la modificación genética: sostiene que esta última técnica, al operar únicamente con genes individuales, limita el número de rasgos del cultivo sobre los que pueden impactar.

Vía | ZDnet & Exome & AgFunderNews

Imagen | tOrange

Seis conclusiones sobre el estado actual de la IA que arroja el Artificial Intelligence Index 2018

$
0
0

Seis conclusiones sobre el estado actual de la IA que arroja el Artificial Intelligence Index 2018

Hoy en día vemos muchos grandes titulares, expectativas y humo alrededor de la inteligencia artificial. La industria no se mueve únicamente por los pasos reales dados por los investigadores, sino también por los pronósticos que manejan las empresas y los políticos.

Esto no es necesariamente algo malo, pero sí dificulta a veces hacerse a la idea del estado real de las cosas en esta tecnología. Hay cierto consenso sobre el potencial de la IA para cambiar muchos campos de la actividad humana, pero es bueno poder bajar al mundo de lo concreto, el del cuándo y el cómo.

Esto ha sido lo que ha llevado a los autores de la edición de este año del Artificial Intelligence Index (un informe elaborado por investigadores del MIT, Stanford, Harvard y OpenAI) a recopilar una serie de datos concretos que, a modo de foto fija, permitan dar una respuesta, aunque sea parcial, a estas preguntas.

Esta segunda edición del informe, solventa el (reconocido) sesgo norteamericano de las conclusiones de la anterior:

"No se puede escribir la historia de la IA sin una perspectiva global. El informe de 2017 estaba muy inclinado hacia las actividades de América del Norte. [...] Este año, comenzamos a cerrar la brecha global. Reconocemos que hay un largo camino por delante para que este informe sea realmente completo".

1. La IA progresa a pasos agigantados

El estudio tienen en cuenta varios indicadores de progreso técnico como la precisión de las traducciones automáticas de noticias (según una puntuación subjetiva asignada por humanos) o el reconocimiento de objetos en imágenes (en comparación con el rendimiento humano promedio).

Traducciones

Concretamente sobre la visión artificial ofrece el estudio un dato muy significativo: al medir el rendimiento de referencia para la popular base de datos de imágenes ImageNet, los autores han detectado que el tiempo que lleva entrenar un sistema de clasificación para que alcance la máxima precisión posible a día de hoy se ha reducido "de aproximadamente una hora a aproximadamente 4 minutos"... en tan sólo 18 meses.

ImageNet

Por otro lado, la segmentación de objetos (la capacidad del software para diferenciar entre el foco y el fondo de una imagen) ha visto aumentar su precisión en un 72% en sólo 3 años.

Los autores también se hacen eco de lo que llaman "hitos a nivel humano", donde destacan campos como el diagnóstico médico o los videojuegos (campo donde DeepMind ha cosechado varias victorias contra jugadores humanos en modalidades de juego como 'capturar la bandera').

2. El mercado en torno a la IA es cada vez mayor

La inteligencia artificial ha salido de los laboratorios de las universidades, y en el mundo exterior (concretamente, en el de los negocios) la han visto con buenos ojos: cada vez se crean más startups relacionadas con la IA, y cada vez recaudan más dinero de los inversores.

Startups

Sin duda, el machine learning abre todo un nuevo campo de posibilidades de negocio, pero estos datos no siguen sin descartar la posibilidad de que estemos ante un mercado recalentado.

3. La IA no es un juego de dos, sino de tres

Se habla mucho de la feroz competencia entre los Estados Unidos y China por consolidarse como líderes en el desarrollo de inteligencia artificial, pero el informe nos muestra que Europa (entendida, claro, como un conjunto) le habla de tú a tú a ambas potencias.

Regiones

En estos tres focos se concentran la práctica totalidad de publicaciones académicas y solicitudes de patentes sobre IA, si bien no se puede minimizar el peso de otras naciones asiáticas como Corea del Sur o Japón. Resulta también destacable que sólo en Europa y China el peso de la investigación recaiga de forma mayoritaria sobre el sector público.

4. También son tres las tecnologías de IA más destacadas

En lo que respecta a los aspectos concretos de la IA que más actividad investigadora genera, el informe indica que el liderazgo le corresponde al aprendizaje automático o machine learning, con el razonamiento probabilístico en segundo lugar.

Tecnologías

Pero no muy lejos de ambas se alza, en tercera posición, la visión artificial, la subdisciplina de la IA que podemos encontrar detrás del desarrollo de los vehículos autónomos, el reconocimiento de objetos y la realidad aumentada.

5. La IA es todavía un club mayoritariamente masculino

Muchos estudios previos señalaban como problema el pequeño porcentaje de mujeres que podemos encontrar en este ámbito (aún más acusado que el del conjunto del sector tecnológico), y el Artificial Intelligence Index viene a confirmarlo.

Mujeres

Ligeramente por encima del 25% en los puestos de trabajo relacionados con IA, las mujeres se encuentran incluso por debajo de esa cifra cuando hablamos de puestos de enseñanza universitaria.

6. La automatización de los puestos de trabajo no será ni inmediata ni absoluta

Frente a algunos discursos más tremendistas, el informe viene a confirmar la conclusión mayoritaria de que el desempleo masivo causado por la automatización de los puestos de trabajo no es algo que vayamos a ver pronto.

Más aún: incluso cuando finalmente llegue, ciertos puestos desaparecerán, mientras que otros se volverán únicamente 'semiautomáticos', y otros están destinados a permanecer siempre en manos humanas.

Imagen principal | The Johns Hopkins University Applied Physics Laboratory (JHU/APL)

Inteligencia artificial en Matrix: "El problema es la elección"

$
0
0

Inteligencia artificial en Matrix:

En 1999, parecía haber en el ambiente un cierto interés platónico sobre el concepto de la realidad virtual/manipulada: ese año se estrenaron 'Matrix', 'eXistenZ' y 'Nivel 13', y unos meses antes había hecho lo propio 'Dark City', todas ellas unidas por tramas que giraban en torno a premisas muy similares.

Sólo una de esas cuatro películas logró el (re)conocimiento del gran público: 'Matrix', el film de estética ciberpunk y rompedores efectos especiales protagonizado por Keanu Reeves y dirigido por los hermanos Wachowski.

Esa primera entrega de Matrix, originalmente concebida como una película en solitario, fue pronto premiada con dos secuelas ('Matrix Reloaded' y 'Matrix Revolutions', ambas en 2003) ciertamente irregulares, que permanecen muy lejos de la originalidad de la primera y que, para más inri, la mancillan con numerosos giros (cuando no meras enmiendas, o incluso incoherencias) argumentales.

Y ambos defectos se perciben aún con más fuerza con la que vendría a ser la cuarta película de la saga, la recopilación de cortos 'Animatrix', un experimento animado con estética manga carente de cohesión interna o de excesiva consistencia argumental con la trilogía de imagen real.

NO, Matrix no es una película sobre inteligencia artificial

Pero la atención de este artículo se centra en la condición de esta saga de puerta de entrada para toda una generación al concepto de 'inteligencia artificial'. Y esto es ciertamente irónico, porque en el fondo 'Matrix' no trata de esta tecnología (ni de ninguna otra).

Antes de nada, hagamos una parada para traer a colación uno de los múltiples criterios de clasificación de las obras de ciencia ficción: la división entra lan sci-fi 'hard' y 'soft':

  • Hard: Aquellas obras que conceden una especial relevancia a los detalles científico-técnicos de la narración.

  • Soft: Obras más especulativas, en las que la verosimilitud y consistencia de las descripciones tecnológicas pierden peso frente a las reflexiones de carácter filosófico.

Hay que dejar claro que 'Matrix' se adscribe claramente a esta última corriente: antes que reflexionar sobre el funcionamiento de la inteligencia artificial (nada vemos sobre redes neuronales, deep learning o unas tristes 'leyes de la robótica') lo que preocupa a los Wachowski son los simbolismos religiosos.

Sí, religiosos, piénsalo: la primera película cuenta con un villano llamado Cifra -Cypher en inglés, que rima con Lucifer- que traiciona a Trinity -la Trinidad- y al mesías que ésta ama... muy disimulado tampoco está.

Neo Neo, muriendo por los pecados de la ciudad de Sión. Lo dicho.

A su vez, dichos simbolismos religiosos están al servicio de una ¿confusa? ¿sutil? reflexión filosófico-política sobre la relación entre elección y causalidad, y sobre la influencia de dicha relación con la dominación sociopolítica.

Finalmente, las malas lenguas añadirán también que, en una cuarta y más profunda capa de análisis, la reflexión sobre la dominación queda supeditada a su vez al lucimiento de los protagonistas en esas** deslumbrantes escenas de acción con 'bullet time' a mansalva**.

¿Cómo crearon Matrix las máquinas?

La historia de Matrix parte de una premisa muy similar a la de Terminator: una vez adquieren autoconciencia, las máquinas se rebelan contra su creador, nos declaran la guerra… y ganan. La diferencia radica en que, en el mundo de Matrix, la guerra no se solventa en un solo día, por lo que la ONU tiene la oportunidad de lanzar un ataque aparentemente brillante: dado que la mayor fuente de energía de las máquinas era el propio Sol, los humanos deciden tapar el cielo y sumir al planeta en la oscuridad.

El problema es que, a partir de ese momento, las máquinas dejan de buscar el exterminio de los humanos y pasan a recolectarnos como pilas: en adelante, nos criarán en cápsulas para aprovechar nuestro calor y energía eléctrica (no hay que irse al futuro para ver algo similar). Pero para mantenernos vivos el mayor tiempo posible, no pueden limitarse a tenernos en coma, deben mantener activas nuestras mentes de algún modo.

El Arquitecto y el Oráculo

Y ahí es donde entra una IA que, años después, Neo conocerá bajo el nombre de El Arquitecto. Él crea la realidad simulada conocida como la Matriz (Matrix) y conecta a ella a todos los humanos, que en adelante nada sabrán del mundo exterior, ni de la guerra contra las máquinas. Siendo una máquina la diseñadora de esta nueva realidad, ésta es perfecta, una utopía inhumanamente perfecta… y, como el propio Arquitecto explica:

"Un éxito solo equiparable a su monumental… fallo. Su ineluctable fracaso se me antoja ahora como una consecuencia de la imperfección inherente a todos los humanos".

La perfección logra que las mentes humanas se rebelen, y la realidad virtual misma se desmorona. Toca instalar Matrix 2.0 y reiniciar el servidor: el nuevo sistema apuesta por el camino contrario e inserta a los humanos en una realidad distópica de guerra y violencia. El resultado es idéntico. El Arquitecto, creado fundamentalmente para diseñar la red eléctrica perfecta, no es capaz de comprender cómo funcionan sus baterías.

"Entonces comprendí que la respuesta se me escapaba porque requería una mente […] no tan limitada por los parámetros de la perfección. Quien dio con la respuesta de un modo fortuito, fue otro programa intuitivo que yo había creado, en principio, para investigar ciertos aspectos de la psique humana".

Dicho programa, convertido más tarde en aliado de la humanidad bajo el nombre de El Oráculo, descubre que la mente humana puede ser dominada mientras conserve, aunque sea inconscientemente, un resquicio de elección. La pastilla azul, que Neo tomará años más tarde (4 versiones de Matrix más tarde, en realidad) será la forma de echar un vistazo por ese resquicio y abandonar la realidad simulada.

Pero lo interesante de estos dos programas es que muestran el modo en que los programas se relacionan con los caóticos humanos: calculando todas sus posibles decisiones. O quizá, si la tecnología de las máquinas de 'Matrix' desciende de la de AlphaZero, sólo tengan que calcular las decisiones más probables en base a la experiencia previa.

Recordemos la escena de las múltiples pantallas con diferentes reacciones de Neo en la oficina del Arquitecto: no son mundos alternativos, sino opciones que se ofrecen al jugador humano y, cuando éste elige, la cámara se acerca a dicha pantalla y la acción sigue a partir de ahí.

El Oráculo es tan eficiente en esta tarea de calcular el curso más probable de las acciones humanas que, a ojos de los humanos, parece predecir el futuro. Pero ella avisa: "No podemos ver más allá de las elecciones que no entendemos". Y, pese al siglo (o al milenio, según los cálculos) transcurridos desde el fin de la guerra entre humanos y máquinas, sigue habiendo algo en los primeros capaz de escapar al más complejo algoritmo.

Matrix, un sistema operativo confusamente explicado

Sí, podemos equiparar a la Matriz con un sistema operativo: para minimizar la probabilidad de que los humanos 'elijan mal', se recurre a parches (los cambios en el sistema que generan los sospechosos déja vu) y a antivirus (los temibles agentes). Pero, como descubrimos durante la segunda película, las reinstalaciones del sistema constituyen un hecho, a la larga, ineludible. Como un Windows cualquiera.

Las citadas incoherencias entre la película original y sus dos secuelas provocan que sea difícil hacerse a la idea de qué es exactamente Matrix. En la primera, el espectador llega a hacerse una idea más o menos clara: Matrix es una simulación, en la que se insertan tanto la mente de los humanos (algunos, con capacidad para desconectarse) como los softwares conocidos como 'agentes'.

Sin embargo, en las siguientes entregas todo se complica mucho más: Matrix cuenta con varios 'niveles' o compartimentos separados (el andén del Ferroviario, la oficina del Arquitecto, el pasillo de infinitas puertas usado por Seraph) y existe una enorme multitud de programas de todo tipo insertados en Matrix, muchos de ellos al margen de (o en abierta rebeldía hacia) las directrices de la supuesta autoridad central de 'las máquinas', a la que curiosamente, en el caso de que efectivamente exista, nunca se menciona por su nombre.

También evoluciona a lo largo de la saga la actitud de los programas hacia lo humano: si de los agentes de la primera entrega sólo nos queda claro cuánto odian el 'hedor' humano del 'zoológico' que es Matrix, más tarde encontramos a programas que persiguen deseos tan humanos como el sexual, o que se sienten 'agradecidos' por tener descendencia.

Sí, pequeños programas "sin un propósito concreto" nacidos de la coyunda digital de otras dos piezas de código. Bueno, el amor paterno-filial artificial nos puede sonar a marcianada, pero eso de crear programas nuevos a partir del código reutilizado de otros es algo con lo que actualmente ya contamos (DeepCoder, de Microsoft, es un ejemplo de ello).

Y es que los seres humanos no aprendemos

En 'Matrix: Reloaded' observamos una interesante escena sobre la relación humanos-máquinas entre los humanos liberados que viven en la última ciudad humana, la subterránea Sión (de nuevo, simbología religiosa). Conversando con Neo, uno de los líderes de la comunidad humana afirma:

La gente es así, a nadie le importa cómo funcionan las cosas mientras funcionen. Me gusta bajar aquí y recordar que esta ciudad sobrevive gracias a estas máquinas. Tienen el poder para dar la vida y para quitarla. [...] Si quisiéramos, podríamos apagar estas máquinas. Tú lo has dicho. Eso es el dominio, ¿no crees? [...] Pero si lo hiciéramos, ¿qué pasaría con nuestra electricidad, nuestra calefacción, nuestro aire?

Los humanos han perdido su mundo por culpa de las máquinas, pero por mucho que puedan odiarlas son incapaces de sobrevivir sin ellas. Es cierto que, al menos, la tecnología de Sión no parece ser inteligente, siendo fundamentalmente mecánica.

Así, los humanos no cruzan el límite señalado por el agente Smith en la primera película: "Al empezar a usarnos para pensar, [su civilización] se convirtió en nuestra civilización. Lo cual es, por supuesto, la esencia de todo esto".

Espera... ¿o sí lo hacen? Recordemos los programas de entrenamiento para los nuevos miembros de la Resistencia presentados en la primera película. ¿Qué es la Mujer del Vestido Rojo sino una IA?

Y sería debatible si aquello de "¡Ya sé kung fu!" no fue la inspiración de otro humano que cree poder usar las armas de la inteligencia artificial para vencerla: Elon Musk y su NeuraLink.

Definitivamente, en un siglo (o milenio), tampoco los humanos han sido capaces de comprender a las máquinas.

La inteligencia artificial está agitando un mundo que no esperábamos: la religión

$
0
0

La inteligencia artificial está agitando un mundo que no esperábamos: la religión

La inteligencia artificial es un concepto disruptivo en el plano tecnológico, con múltiples aplicaciones ya en uso o atisbables a corto-medio plazo. Puede representar para nuestra especie un modo de sortear muchas de nuestras limitaciones y de ampliar nuestro mundo. Pero, a la hora de la verdad, su papel no será muy diferente del que ejerció hace unos años la electricidad o, hace unos siglos, el descubrimiento del fuego.

Eso siempre que hablemos, claro, de la Inteligencia Artificial débil, porque si hablamos de la Inteligencia Artificial fuerte —esto es, aquella que puede realizar con éxito cualquier tarea intelectual de cualquier ser humano— el panorama cambia notablemente.

Y es que no hablaríamos ya de una mera ampliación de nuestro mundo —de nuestra área de confort como especie, vaya—, sino de una alteración del orden metafísico que —consciente o inconscientemente, con unos u otros nombres— nuestra especie (o, más bien, nuestro cerebro) ha tendido mayoritariamente a ver como algo inquebrantable desde que, bueno, el hombre es hombre: nosotros aquí abajo, como seres creados, y Algo Más ahí arriba, como Origen de Todo.

Pero, siendo la IA fuerte aún una mera especulación, el modo en que su presencia trastocaría este orden cósmico aún está sujeto a debate: ¿Podría ejercer un papel divino? ¿Estaríamos dispuestos a enfrentarnos a la evidencia de que el cuerpo biológico no es más que uno de los posibles soportes de eso que llamamos 'alma'?

Todas estas preguntas, o la mera posibilidad de que un día nos veamos impelidos a darles respuesta, han agitado en los últimos tiempos a organizaciones religiosas y a personas de a pie, creyentes y no creyentes, y les han hecho llegar a conclusiones más o menos ortodoxas.

Otras veces, es cierto, la intersección entre el mundo de la Inteligencia Artificial y el de la Religión no pasa de convertirse en una mera curiosidad, en un espectáculo de feria. El objetivo de este artículo es el de hacer un repaso a ese choque, a priori improbable, de mundos.

Deus ex Machina

"El lugar más interesante del mundo desde una perspectiva religiosa no es el Estado Islámico o el Cinturón de la Biblia, sino Silicon Valley. Allí es donde gurúes de la alta tecnología están elaborando para nosotros religiones [que] prometen todas las recompensas antiguas (felicidad, paz, prosperidad e incluso vida eterna), pero aquí, en la Tierra, y con la ayuda de la tecnología, en lugar de después de la muerte y con la ayuda de seres celestiales". ('Homo Deus', Yuval Hoah Harari)

Alexander Bard es un artista y sociotecnólogo sueco, autor de tres libros de cierta fama sobre el nacimiento y evolución de la Sociedad Red (conocidos como la 'Futurica Trilogy'), que en 1997 se convirtió a la antigua (y hoy muy minoritaria) fe zoroástrica.

Sin embargo, en 2012 se decidió a crear su propio movimiento religioso, el sinteísmo. Lo que dicha 'fe' plantea es un "Dios ha muerto, ¡viva Dios!". Para ellos, la concepción tradicional de Dios ha muerto, pero nosotros mismos estamos estamos 'dando forma' a Dios a través de los avances de la Era Digital (para Bard, de hecho, "Internet es un fenómeno tecnológico devenido en teológico"). Aunque no terminan de precisar qué será su dios:

"Hablamos de una entidad, ya sea colectiva como una civilización, ya sea una Inteligencia Artificial o algo más".

Bard & Levandowski Izquierda: Alexander Bard (foto vía Stockholm Pride) | Derecha: Anthony Levandowski (foto vía Transport Topics / Flickr)

Pero esa idea de 'Dios' como un proceso colectivo y a largo plazo, que puede terminar o no traduciéndose en una IA o en otra cosa, suena demasiado abstracta a oídos de muchos 'creyentes'. Dios será una IA o no será, opinan, y vaya si lo va a ser: ellos mismos van a programarlo.

Anthony Levandowski es un ingeniero que trabajó para Google y Uber, generó un conflicto legal de gran magnitud entre ambas empresas y terminó despedido entre acusaciones de espionaje industrial. Una historia más de Silicon Valley, nada fuera de lo normal. Lo curioso del caso es a qué se dedicó Levandowski tras su despido: fundó una iglesia.

Concretamente, se proclamó 'Decano' del 'Camino del Futuro', una organización religiosa que, según sus estatutos, se centrará "en la creación, aceptación y adoración de una Deidad basada en Inteligencia Artificial, desarrollada mediante hardware y software de computadora".

Espera, ¿quiere crear un dios? "No es un dios en el sentido de que produzca rayos o cause huracanes, pero si hay algo millones de veces más inteligente que el humano más inteligente, ¿de qué otra forma lo llamarías?", se preguntaba el Decano Levandowski en Wired.

Algunos podríamos decir que su concepto de deidad es más propio de un personaje de los X-Men que de la Biblia o el Rig Veda; allá cada cual con sus conceptos teológicos. Pero más fascinante aún es su motivación para adorar a la Inteligencia Artificial: "Me encantaría que la Máquina nos vea como unos ancianos a los que respeta y cuida, que dijera 'Los humanos aún deberían tener derechos, aunque yo esté a cargo'".

Sí, los creyentes del Camino del Futuro consideran inevitable el ascenso de la Máquina (la Singularidad, vaya) y están convencidos no sólo de que haría mejor trabajo que nosotros gestionando el planeta: también que favorecerá a las personas que facilitaron el camino su camino hacia el trono divino.

Y de pronto esto ya no es un cómic de X-Men, sino que Levandowski se ha convertido en Dylan Gould, el humano traidor de 'Transformers 3'.

"No apague usted su Biblia. Instalando actualización 12 de 37"

Vince Lynch es el CEO de una empresa de IA adaptada a empresas llamada IV.AI, y ve factible que los humanos se arrodillen ante una IA para adorarla. Sobre todo porque, según él, una IA se parece mucho no ya a Dios, sino a la religión organizada.

Vince Lynch Vince Lynch (vía socialmediaweek.org)

"Educar a los humanos en la religión es similar al modo en que enseñamos conocimientos a las máquinas: la repetición de muchos ejemplos que son versiones de un concepto que quieres que la máquina aprenda", explica Lynch en referencia a las imágenes y metáforas recurrentes de la Biblia.

Para reforzar su punto de vista, Lynch ha creado una IA simple que, alimentada con los textos del Génesis, es capaz de ir creando sobre la marcha nuevos versículos bíblicos. Aquí va un ejemplo (traducido al español):

  • 43: 28 "Y se decían los unos a los otros: Vamos, construyámonos un pequeño bálsamo y una paloma joven".
  • 28: 17 "Y dijo a su casa, ya todas las naciones de la tierra que había puesto por almohada, y se acostaron en aquel lugar de Betel; pero el hombre era perfecto en su vejez, y el muchacho era esclavo de mi mano".
  • 6: 7 "Y la cosa era buena en los días de la cosecha de trigo, y no los encontró".

Lo que está claro es que la retórica la ha 'pillado', pero parece que 'algo' falla. Lo bueno es que circulan por Internet ejemplos de código Python que permiten a cualquier programador aficionado crear su propio algoritmo de deep learning capaz de redactar novísimos testamentos.

Hermano pájaro, hermana red neuronal...

Eva pregunta a Siri Antes de que Eva se dejara liar por la serpiente, compartió sus dudas con Siri. No le sirvió de mucho.

El propio Alan Turing, creador del test homónimo y, fundamentalmente, padre de la inteligencia artificial, escribió en 1950 uno de los textos académicos fundacionales de esta disciplina, "Máquina computacional e Inteligencia".

En él, sintetiza una de las objeciones que plantean aquellos que niegan que una máquina pueda pensar:

"Pensar es una función del alma inmortal del hombre. Dios le ha otorgado un alma inmortal a cada hombre y mujer, pero no a otros animales o máquinas. Por lo tanto, ningún animal o máquina puede pensar".

A continuación, Turing plantea su propia contra-objeción: "Intentando construir estas máquinas [pensantes], no deberíamos estar usurpando su poder para crear almas, no en mayor medida que cuando procreamos niños: más bien, en cada caso somos instrumentos de su voluntad al proveer mansiones para las almas que él crea".

Cuando, más de medio siglo más tarde, el Jerusalem Post preguntaba a Marvin Minsky, reformulador del concepto moderno de inteligencua artificial, si alguna IA "podría alguna vez tener un alma como la nuestra", él contestó que

"Alma es la palabra que usamos para la idea que cada persona tiene de qué es y por qué. Creo que todo el mundo tiene que construirse ese modelo mental. Y, si dejas sola a una computadora o a una comunidad de ella, intentarán descubrir de dónde vienen y qué son".

Así que los creadores de la IA parecen partir de una clara conciencia de que potencialmente, algún día, las inteligencias artificiales podrían tener un alma, metafísicamente equiparable a la nuestra. Pero, ¿en qué situación deja eso a la religiones actuales?

El judaísmo rabínico, por ejemplo, hace siglos que sostiene que si algo "parece humano y actúa lo suficientemente humano como para hacernos dudar cuando interactuamos con ello, la criatura debe ser considerada una persona, al menos para algunas cosas", incluso si no cumple "el tecnicismo" de "haber nacido de mujer".

Hay una profunda motivación teológica para esto: lo que nos hace humanos, diferenciándonos de los animales, está hecho "a imagen y semejanza de Dios".

Inmortalidad: ¿subir al Cielo o a la Nube?

Pero, ¿y si el debate no girase en torno a si las IAs pueden o no tener alma como nosotros... sino a si nuestras propias almas pueden convertirse en IAs? La Conjetura de Turing-Church (formulada paralela e independientemente por el propio Turing y por el matemático Alonzo Church) sostiene que cualquier cálculo ejecutado por un ordenador con acceso a una cantidad infinita de almacenamiento, puede ser llevado a cabo por cualquier otra máquina de calcular con almacenamiento infinito, al margen de cuál sea su configuración.

Esto es lo que Turing y Church bautizaron como "computación universal", una idea que el físico Stephen Wolfram llevó aún más lejos al plantear que muchos procesos de gran complejidad en los ámbitos de la biología y la tecnología son computacionalmente equivalentes. Esto supondría que en la naturaleza humana no habría nada que no pudiera ser reducido a algoritmos y, por lo tanto, como sostiene el teórico de la inteligencia artificial Hans Moravec, en su libro 'Mind Children: The Future of Robot and Human Intelligence' (1988), toda mente humana puede ser escaneada y convertida en una IA.

Esta es una idea, claro, con poderosas consecuencias religiosas. El magnate ruso Dmitry Itskov ha puesto en marcha un proyecto, llamado 'Avatar 2045' con el que, en última instancia pretende lograr "espíritus independientes de la sustancia", la inmortalidad cibernética (aunque su objetivo a corto plazo pasa por algo similar a los sustitutos de la película homónima: poder movernos con cuerpos robóticos mientras los nuestros reposan a salvo).

"Es importante establecer un puente entre los científicos y los líderes espirituales para lograr una transición exitosa a una nueva fase para la humanidad", sostiene Itskov, que hace ya 6 años recabó el apoyo del Dalai Lama, uno de los principales líderes del budismo. El dogma budista establece que el alma sólo alcanza la trascendencia tras alcanzar el Nirvana, la extinción del ego ilusorio... quizá dejar atrás el cuerpo y poder ser uno con la Red se parezca a eso.

Pero si Itskov plantea su Avatar 2045 como un proyecto científico-empresarial que puede colaborar con todas las religiones, otros reivindican que la inmortalidad digital debería ser, precisamente, la piedra sobre la que se construya una nueva iglesia transhumanista. Giulio Prisco, filósofo futurista italiano, creó precisamente la Iglesia de Turing para promover esa certeza (nota: 'Iglesia de Turing', en inglés, se escribe "Turing Church", todo un homenaje a la conjetura antes mencionada).

Las raíces cristianas del transhumanismo

Pero, aunque muchas de las teorías e iniciativas transhumanistas con un planteamiento similar parten de puntos de vista ateos o sinteístas, lo cierto es que tanto el transhumanismo como la Singularidad son conceptos cuyas raíces se remontan al cristianismo. Heterodoxo, eso sí.

Fiodorov Y De Chardin Nikolai Fiodorovich Fiodorov (izquierda) y Pierre Teilhard de Chardin (derecha).

Nikolai Fiodorovich Fiodorov Fue un bibliotecario y profesor de escuela ruso del siglo XIX, cristiano ortodoxo observante y piadoso. Nada en dicha descripción podría indicar que estamos ante el fundador de la primera escuela transhumanista, el cosmismo ruso.

Pero Fiodorov enarbolaba el concepto teológico de 'Bogochelovechestvo', traducible como 'Humanodivinidad' y que (simplificando mucho) consiste en sostener que el ser humano es una manifestación de lo divino en la Naturaleza.

Para Fiodorov, acercarse a Dios requería tomar consciencia de cómo estamos condicionados por esa dimensión natural (responsable de la violencia y nihilismo de la especie humana) y tratar de transcenderla a través de la ciencia y la tecnología.

Así, teorizó a favor de la exploración espacial (las ideas de uno de sus alumnos, Konstantín Tsiolkovski, inspiraron el programa espacial soviético) y de la supresión de la muerte. Y no sólo suprimirla, también revertirla: Fiodorov veía un futuro en el que todos los humanos que habían pisado la Tierra resucitarían gracias a la tecnología de sus descendientes, que realizarían así el Reino de Dios en... el Cosmos.

Unos años más tarde, el sacerdote jesuita y paleontólogo francés Pierre Teilhard de Chardin defenderá que la creciente interconexión de ideas humanas está conformando una red global, a modo de sistema nervioso del cosmos, de la que con el tiempo emergerá algo más grande con lo que la humanidad podrá transcender a la evolución biológica y a sí misma. Ese momento será el llamado Punto Omega, en torno al cual desarrolla una reflexión teológica no muy alejada del bogochelovechestvo de Fiodorov.

Micah Redding sostiene que lo que Teilhard llamó "el punto Omega" es lo que, en estos días, llamamos "la Singularidad". Pero, ¿quién es Micah Redding? Es un desarrollador de software, hijo de predicador, y director ejecutivo de la Asociación Transhumanista Cristiana de los Estados Unidos. Su declaración de principios incluye afirmaciones tales como

"Reconocemos la ciencia y la tecnología como expresiones tangibles del impulso que Dios nos dio para explorar y descubrir, y como una consecuencia natural de haber sido creados a Su Imagen".

"El Señor esté con vosotros". "Y con tu software".

Sin embargo, el primer gran cambio que los debates sobre la IA están motivando en las grandes religiones tradicionales es algo bastante más mundano, casi (auto)paródico: que la inteligencia artificial no esté ni en el altar ni entre los adoradores, sino oficiando los ritos. Una forma rápida de solventar posibles crisis de vocaciones.

El año pasado, con ocasión del quinto centenario de la Reforma Protestante, la iglesia luterana de Hesse y Nasau presentó en público a BlessU-2, un robot levemente antropomorfo capaz de ofrecer bendiciones y leer la Biblia en 5 idiomas.

"Queríamos que la gente se planteara si es posible ser bendecido por una máquina, o si se necesita a otro ser humano. La idea es provocar el debate", explicaba el pastor Stephan Krebs. "La gente de la calle se muestra curiosa, divertida e interesada. Pero dentro de la iglesia algunas personas piensan que queremos reemplazar a los pastores humanos con máquinas".

Algo más de miedo deberían tener los sacerdotes budistas japoneses, que en los últimos años han visto cómo un simpático robot llamado Pepper se ofrecía en alquiler para la gente pudiera contar con él para oficiar funerales (y, además, por una cuarta parte de lo emolumentos de los sacerdotes de carne y hueso).

¿Llegaremos a ver templos en los que una IA ofrecerá a sus feligreses asesoramiento espiritual o, directamente, el perdón por sus pecados? El portal Catholic Online señala que no es difícil imaginar una versión religiosa de Alexa o Siri que, a modo de Catecismo digital, pueda resolver dudas básicas del creyente. Pero que, en lo relativo a las funciones sacerdotales,

"Ningún sustituto es posible, ni uno será aceptado. Esas son buenas noticias: hay un trabajo que sí está a salvo de los robots y la IA, y es el sacerdocio. Gracias a Dios por eso".

Amazon ha empezado a enviar muestras gratuitas de productos basándose en los hábitos de consumo de sus usuarios

$
0
0

Amazon ha empezado a enviar muestras gratuitas de productos basándose en los hábitos de consumo de sus usuarios

Si llevamos un tiempo siendo usuarios de Amazon, lo más probable es que el portal ya tenga una ligera idea de cuáles son los productos que es más probable que compremos. Gracias a esa información, cada vez que entramos en su sitio web, Amazon puede ofrecernos toda una serie de recomendaciones personalizadas.

Pero, ¿y si Amazon pudiera monetizar estas recomendaciones ofreciéndolas a otras compañías? Y, más aún, ¿y si éstas no se realizaran en la web, sino que se pudieran "probar, oler y sentir" y llegaran físicamente a nuestras casas?

Pues precisamente en eso está trabajando la compañía de Jeff Bezos: en un programa que permita a las marcas enviar muestras gratuitas a consumidores predispuestos. Amazon se ha propuesto combinar una práctica de la 'vieja escuela' con el uso de técnicas de machine learning.

Estas muestras se encuadrarían en categorías como productos comestibles (para humanos y para mascotas), de belleza y bienestar, o para el hogar. Algunos usuarios han contado en sus redes sociales que ya han empezado a recibir las primeras muestras (por ejemplo, de café Folgers o de cosméticos de Maybelline).

Amazon ha creado un nuevo formato publicitario

Amazon saca provecho así a su imagen de proveedor fiable de productos cotidianos -y su amplísima base de usuarios- para generalizar el uso de las muestras gratuitas como formato publicitario... un formato que Google, líder de la industria publicitaria online no tiene forma de explotar, al carecer de los datos de compra y de la infraestructura logística necesaria.

Una vez este programa de envío de muestras gratuitas se consolide, muchas marcas podrían decidir que invertir en él garantiza mayores probabilidades de conversión (esto es, de pasar de la visualización a la compra) que millones de impresiones en anuncios gráficos web.

Spam

Además, Amazon está trabajando en la automatización de estas campañas publicitarias, para facilitar que las marcas puedan distribuir sus muestras sin la ayuda de un representante de ventas humano. Publicidad autoservicio combinada con un precisa segmentación... suena exactamente a la fórmula usada por Google y Facebook.

Sin embargo, esta nueva política publicitaria podría desembocar en polémicas en torno a la privacidad: por muy personalizada que sea la oferta, algunos usuarios se sentirán violentados si reciben productos que no han pedido.

Por suerte, los usuarios de Amazon.com ya pueden excluirse como receptores de las muestras cambiando la configuración de su cuenta a través de este enlace.

Vía | Axios

Imagen | Mike Seyfang & Andy

A los estadounidenses de a pie también les preocupa la IA, aunque pueden estar exagerando la velocidad a la que se desarrollará

$
0
0

A los estadounidenses de a pie también les preocupa la IA, aunque pueden estar exagerando la velocidad a la que se desarrollará

Durante mucho tiempo, la mayoría de la población ha ignorado el mero concepto de 'inteligencia artificial' o, en caso de conocerlo, lo ha visto como algo lejano, sin consecuencias inmediatas más allá de los laboratorios.

Pero esto está cambiando, y no precisamente porque se haya generado una repentina corriente de opinión favorable hacia la IA. En palabras de Allan Dafoe, profesor asociado de política internacional de IA en la Universidad de Oxford y coautor del último informe publicado por el Center for the Governance of AI,

"Actualmente no existe un consenso en favor del desarrollo de inteligencia artificial avanzada, o de que va a beneficiar a la humanidad. Ese tipo de percepción podría llevar a que la IA sea percibida como ilegítima o causar reacciones políticas contra su desarrollo".

El citado informe está basado en una encuesta realizada a 2.000 adultos estadounidenses a lo largo del año pasado, y pretende ofrecer una imagen clara de cómo se posicionan en este tema las personas ajenas al mundo tecnológico.

Por supuesto, revelar esta imagen es complicado. Sobre todo por lo amplio del concepto 'inteligencia artificial', usado para englobar desde productos de consumo como Siri a futuras y revolucionarias tecnologías como la Inteligencia Artificial General, pasando por realidades presentes como el superordenador Watson.

La IA más prosaica es más invisible

Mucha gente no conoce aún todos los campos en los que tiene presencia la IA. Si bien la mayoría de los encuestados saben que se usa en robots, asistentes virtuales y vehículos autónomos... pocos la identifican como la responsable de las búsquedas de Google, las recomendaciones de Netflix o el etiquetado de fotos en Facebook.

No es una preocupación de 'nerds'

Aunque las voces críticas hacia la IA que más repercusión cosechan sea la de gente como Stephen Hawking o Elon Musk, la preocupación por la repercusión social de la IA no es cosa de 'la gente de Silicon Valley'.

Por el contrario, constituye una preocupación transversal, común en gente de todos los niveles socioeconómicos. De hecho, de media, la gente ajena al mundo tecnológico y aquella con menores ingresos está aún más preocupada con este tema.

Si estas conclusiones realmente coinciden con la percepción mayoritaria en nuestras sociedades, podrían motivar a los políticos a no ignorar ni posponer el debate público sobre la IA, y empezar a proponer medidas para regularla.

No tenemos claro si queremos una IA más inteligente

La mayor parte de los encuestados prevé que haya grandes avances en el campo de la IA a lo largo de la próxima década, pero existe una gran división en torno a lo deseable de una IA aún más inteligente: el 27% se opone, el 31% lo apoya en mayor o menor grado, y el 29% no tiene clara su opinión al respecto.

Los expertos piden rebajar la euforia

Esas previsiones optimistas sobre la velocidad de desarrollo de la IA (el encuestado promedio predijo una probabilidad del 54% de que la IA iguale en 2028 "todas las capacidades económicamente relevantes del humano medio") difieren de las previsiones de los expertos, que en la mayoría de los casos no ve probable tal hito antes del 2050.

Sin embargo, dichos expertos temen que el excesivo optimismo sobre el potencial a corto/medio plazo de la IA termine 'matando' a la industria o haciendo que el público se termine despreocupando acerca de su regulación.

La IA es un asunto muy delicado, pero no tanto como las bombas nucleares

Más del 80% de los estadounidenses creen que la IA y la robótico son asuntos que "deben manejarse con cuidado", y en quien confían (o en quien menos desconfían, más bien) como responsables de realizar esa labor es en su Ejército y en los investigadores de las universidades, por encima de las compañías tecnológicas, las ONG's o agencias como la CIA.

Al público le preocupan casi tanto las repercusiones de esta tecnología como otros asuntos más visibles hoy en día (por ejemplo, las amenazas a la privacidad o los ciberataques). Sin embargo, se consideró una amenaza menor y aún menos probable que los ataques nucleares, las epidemias o las recesiones globales.

Imagen | Ecole polytechnique

La inteligencia artificial reemplazará el 40% de los trabajos en los próximos 15 años, asegura Kai-Fu Lee, pionero en IA

$
0
0

La inteligencia artificial reemplazará el 40% de los trabajos en los próximos 15 años, asegura Kai-Fu Lee, pionero en IA

Durante el último año hemos visto una gran cantidad de predicciones acerca de la participación de los robots y la inteligencia artificial en cada vez más puestos de trabajo. Por ejemplo, McKinsey Global Institute (MGI) apunta a que la automatización afectará a entre 400 y 800 millones de personas, quienes serán desplazadas de sus puestos de trabajo en 2030, es decir, aproximadamente el 14% de la fuerza laboral.

Otro ejemplo es el del Foro Económico Mundial (WEF), quien pronostica que para 2025 se eliminarán 75 millones de empleos debido a la automatización, pero a su vez se crearían 133 millones de nuevas funciones. Ahora, Kai-Fu Lee sube la cifra y apunta a que esto será peor de lo que se esperaba, ya que para 2035 el 40% de los trabajos del mundo serían realizados por algún sistema basado en inteligencia artificial.

"Este cambio será el más grande en la historia de la humanidad. Incluso más que el de la electricidad"

Kai-Fu Lee es una de las voces más importantes en cuanto a inteligencia artificial, de hecho es uno de los pioneros de esta tecnología en el mundo al haber desarrollado el primer sistema de reconocimiento de voz. Lee fue el presidente de Google China y trabajó para Microsoft. hoy día se dedica a invertir en startups como venture capital.

Recientemente, Lee fue entrevistado por Scott Pelley, uno de los periodistas más importantes y respetados de Estados Unidos, quien charló con el ejecutivo acerca de su visión a futuro de la inteligencia artificial y su participación en la vida laboral del mundo.

Kai Fu Lee

Las predicciones de Lee fueron por demás interesantes, ya que no sólo representa un cambio y un nuevo acercamiento a las realizadas anteriormente, sino que nos habla de que estamos por enfrentarnos al cambio más importante en la historia de la humanidad: "Creo que [la inteligencia artificial] va a cambiar al mundo más que nada en la historia de la humanidad. Incluso más que la electricidad".

"La IA reemplazará cada vez más los trabajos repetitivos, no solo aquellos de trabajadores de cuello azul, sino también un montón de trabajadores de cuello blanco. Los choferes, como conductores de camiones o cualquiera que conduzca un vehículo para ganarse la vida, verán como sus trabajos serán eliminados entre 15 y 20 años. Mientras que trabajos con un mayor grado de complejidad, como chefs o camareros, se enfrentarán a elementos que se automatizarán... como las tiendas o los restaurantes, y en unos 15 años esto desplazará a aproximadamente el 40% de los empleos en el mundo."

La educación es la clave

Dentro de estas proyecciones, Lee menciona que los mayores cambios también se verán en la educación, ya que a través de nuevos sistemas de inteligencia artificial en aulas remotas será posible mejorar el aprendizaje de los estudiantes que están lejos de las grandes ciudades. Gracias a esto, será posible detectar a aquellos estudiantes con talento y así poder impulsar el crecimiento en sus áreas de fortaleza.

Lee actualmente radica en Beijing, China, y ahí está invirtiendo precisamente en este tema, el de la educación a distancia por medio de inteligencia artificial. Se trata de un sistema también diseñado para medir el interés y la inteligencia de los estudiantes por materia, con el que, aseguran, se podrá identificar a "los genios del mundo" por medio de inteligencia artificial.

La base de esta plataforma es un perfil, con una gran cantidad de datos y detalles, que se crea para cada estudiante, que sirve para dar seguimiento a su educación y dónde se detectan su áreas de interés, para que así el profesor se enfrente a cada caso en particular y sepa cómo ayudar a cada uno de los estudiantes.

Según Lee, esta apuesta en la educación es también una apuesta en el futuro, ya que estamos hablando de jóvenes que se enfrentarán a una vida laboral donde el 40% de los empleos del mundo desaparecerán. El objetivo, según explica Lee, es anticiparse a estos cambios y preparar a las nuevas generaciones, ya que a diferencia de las "revoluciones" anteriores, ésta llegará más rápido y su impacto será mayor y a gran escala.

Un punto interesante que plantea Lee es la competencia que existe entre Estados Unidos y China por el liderazgo de la inteligencia artificial. Aquí menciona que los estadounidenses tienen a día de hoy a los más grandes expertos en este campo, lo que hace que su liderazgo tecnológico sea indiscutible.

Sin embargo, China cuenta con las plataformas de recopilación de datos más importantes del mundo, que ofrecen un suministro interminable de información que son el combustible de la inteligencia artificial china.

Esto, sumado a las nuevas plataformas educativas para jóvenes chinos, serán las claves para que en cinco años, según Lee, China se convierta en el líder tecnológico más importante del mundo, y el único que tendrá una ventaja ante la llegada inminente de la automatización y la revolución que supondrá la inteligencia artificial.


Los dos tipos de predicción del suicidio con Inteligencia Artificial y cómo se consiguen

$
0
0

Los dos tipos de predicción del suicidio con Inteligencia Artificial y cómo se consiguen

Durante la última década, los suicidios se han convertido en la principal causa de muerte no natural en España. El año pasado se quitaron la vida diez personas cada día en nuestro país, según los datos del INE. En otros países, como los Estados Unidos, la tasa de suicidios también es un tema cada vez más presente en el debate público.

El problema al que se enfrentan los intentos de luchar contra esta lacra reside en el hecho de que los métodos tradicionales de predicción de suicidio (como los cuestionarios facilitados por los médicos) no son demasiado precisos.

De modo que tanto empresas tecnológicas como instituciones públicas están poniendo su esperanza en que la inteligencia artificial sea capaz de proporcionar herramientas con las que predecir intenciones suicidas.

Como resultado de los primeros esfuerzos en este sentido, han surgido dos tendencias paralelas sobre el mejor modo de enfocar esta tarea, que Mason Marks, investigador de Derecho de la Información de la Univ. de Nueva York, ha bautizado como:

  • "Predicción médica del suicidio": Técnica experimental usada por médicos y hospitales para realizar predicciones en base al análisis de los registros de pacientes. No muy utilizada todavía, más allá de un proyecto liderado por el Departamento de Asuntos de los Veteranos de los EE.UU. Dado el contexto en el que se realiza, existen numerosas limitaciones al uso de datos relacionadas con la privacidad.

  • "Predicción social del suicidio": Sin apenas regulación, y por ello ampliamente usada. Realiza predicciones en base a datos sobre el comportamiento de los usuarios extraídos de sus interacciones en redes sociales o de sus dispositivos inteligentes.

Facebook o Twitter, por ejemplo, han puesto en marcha iniciativas al respecto. El Departamento de Asuntos de los Veteranos también cubre este campo a través del análisis de las comunicaciones telefónicas (que no del contenido de las mismas).

Predicción social del suicidio

Facebook Depresión

Mientras llevamos a cabo nuestra rutina diaria, vamos dejando un rastro digital que puede ser analizado. Facebook, por ejemplo, analiza las publicaciones de los usuarios (y de sus amigos) en busca de palabras o frases concretas que correlacionan con pensamientos suicidas.

Facebook publicó el pasado mes de septiembre un artículo en su blog corporativo explicando el funcionamiento de su plataforma de predicción, y en él relataban los obstáculos a los que tuvo que enfrentarse el sistema de machine learning que desarrollaron.

"Hacer que una computadora reconociera una expresión 'suicida' fue un ejercicio complejo en el análisis de los matices del lenguaje humano, [pues] numerosas frases que podrían indicar un intento de suicidio - “matar”, “muere”, “adiós” - se utilizan comúnmente en otros contextos. Un ser humano puede reconocer que “tengo tanta tarea que quiero suicidarme” no es un verdadero grito de angustia, pero ¿cómo enseñar a una computadora esa clase de comprensión contextual?

"Para entrenar el sistema de clasificación, fue necesario alimentarle con toneladas de ejemplos, tanto de lo que estaba tratando de identificar (ejemplos positivos), así como lo que no (ejemplos negativos), para que aprendiera a distinguir patrones [propios de cada situación].

Cuando un usuario es clasificado de "alto riesgo", su caso es remitido a la policía estadounidense (el GDPR impide que esto ocurra también en Europa) para que realice un "chequeo de bienestar" en casa del usuario. Algunos meses los avisos de Facebook han llegado a motivar más de 100 chequeos de este tipo al mes.

Crisis Text Line, un servicio de asesoramiento a menores gestionado por una ONG y que se integra en Facebook Messenger y Youtube, ha generado 20 avisos... diarios. Basan su sistema de predicción en el análisis de una enorme cantidad de mensajes intercambiados por los usuarios de estos servicios, de una manera muy parecida a la que usan Amazon o Netflix para realizar sus recomendaciones de contenidos. Parte de los datos recopilados por la ONG están disponibles para su visualización online.

Consecuencias negativas imprevistas

"A primera vista, la predicción social del suicidio parece ser una propuesta ganadora, pues permite a las plataformas online llevar a cabo un servicio público que beneficia a los usuarios y sus familias. Sin embargo, esta clase de predicciones vienen generadas por algoritmos protegidos como secretos comerciales".

Esta denuncia de Marks reviste gran importancia, pues esta situación no sólo afecta a la privacidad de los datos, sino a la posibilidad de evaluar la eficacia del sistema.

En algunos casos, incluso una predicción acertada puede causar más daño que beneficios, bien porque la denuncia de Facebook se realice en países donde el intento de suicidio es delito (como Singapur), bien porque desemboque en una hospitalización involuntaria, que (paradójicamente) aumenta la probabilidad de suicidio.

Eso por no mencionar que las predicciones sociales puedan terminar siendo usadas fraudulentamente como excusa para vulnerar la inviolabilidad del domicilio (ante sospecha fundada de que existe riesgo de suicidio, los agentes de la ley dejan de necesitar una orden del juez).

Sin embargo, es en la privacidad donde Marks elige poner el acento:

"Aunque Facebook afirma que sus predicciones de suicidio no se utilizan para la publicidad, otras compañías menos escrupulosas podrían compartir sus propias predicciones de suicidio con anunciantes, corredores de datos y compañías de seguros"

No es por desconfiar de cómo salvaguarda Facebook los datos de sus usuarios, pero Marks propone proteger a estos últimos legislando para que cualquier algoritmo destinado a predecir suicidios sea considerado "software de uso médico".

La IA no es capaz de reconocer como tales el 30% de los inodoros del mundo (los de las familias más pobres)

$
0
0

La IA no es capaz de reconocer como tales el 30% de los inodoros del mundo (los de las familias más pobres)

El verano pasado el equipo de ciencia de datos de Alto Data Analytics dio inicio, con ocasión del Día Mundial del Aseo, a un proyecto destinado a "comprender la crisis mundial del agua".

Recurriendo a datos abiertos proporcionados por Dollar Street, un proyecto web destinado a divulgar los efectos de la desigualdad que ofrece en su web imágenes de las condiciones de vida reales de familias de todo el mundo, organizadas por niveles de ingresos.

Según cuenta Clarissa Watson, jefa de marketing de la compañía, sus analistas

"modelaron un análisis de reconocimiento de imagen de inodoros impulsado por inteligencia artificial, para obtener de manera más veloz y automatizada un número más exacto de personas afectadas por condiciones de saneamiento inseguras a escala global".

"Tras procesar 971 imágenes [con el software TensorFlow de Google], probaron la capacidad del algoritmo para identificar inodoros según los grupos de ingresos. Luego utilizaron las herramientas de Gapminder para analizar los datos y comprender mejor qué proporción de la población mundial utiliza instalaciones sanitarias inseguras".

¿Cuál fue el resultado de dicho análisis? La IA desarrollada por Alta Data Analytics no fue capaz de reconocer como inodoros aproximadamente 1 de cada 3 de los mismos (concretamente, el 30,3%).

Baños Imagen: Alto Data Analytics

Cuando los analistas de la compañía comprobaron qué tenían en común las imágenes que la IA no era capaz de identificar, pudieron comprobar que el grueso de las mismas se concentraba en la categoría de familias de bajos ingresos:

  • Los aseos de familias con ingresos por debajo de los 122,5 dólares mensuales (categoría en la que se sitúa el 30,3% de la población mundial) sencillamente no eran reconocidos por la IA.

  • Mientras, los aseos de las familias cuyos ingresos se situaban por debajo de los 245 dólares mensuales (47,8% de la población) tenían tan sólo un 50% de probabilidades de ser reconocidos.

Gráfica

Este ejercicio constituye una evidencia del importante papel que los datos abiertos y la inteligencia artificial ostentan a la hora de generar un conocimiento que pueda desembocar en cambios sociales.

Para Watson, a medida que los datos se democratizan las organizaciones deberán dedicar más recursos a establecer estrategias de datos y a desbloquear información socialmente relevante.

Imagen de portada | Glenn Beltz

A los seres humanos siempre nos quedará la creatividad, una máquina no puede crear ¿mito o realidad?

$
0
0

A los seres humanos siempre nos quedará la creatividad, una máquina no puede crear ¿mito o realidad?

Si tuviéramos que elegir cualidades que definen a los humanos, la creatividad sería sin duda una de ellas. La evolución ha dotado a nuestros cerebros de la capacidad para inventar, escribir, componer, pintar… en definitiva, crear arte. Hasta hemos pensado que esta capacidad nos hace únicos, pero la inteligencia artificial lo pone ahora en duda, con aplicaciones que producen música, textos o imágenes.

¿Puede un robot pintar una obra maestra? ¿Puede un algoritmo sentirse y expresarse de forma única y original o solo copiar e imitar patrones de las obras producidas por humanos? La denominada 'creatividad' computacional nos conduce a nuevas preguntas sobre la creatividad humana. Sobre si es un rasgo exclusivamente humano. ¿Hasta dónde puede llegar la inteligencia artificial? ¿Llegará algún día un ordenador a ser más creativo que una persona?

Hay respuestas para todos los gustos, desde las opiniones más laxas a las más puristas, que llevan a otras preguntas básicas. La primera: ¿cómo nace la creatividad humana?. "Como mamíferos, descendemos de un linaje muy largo. Hace aproximadamente 2,2 millones de años el Homo habilis creó herramientas de piedra muy simples. Después llegó el Homo erectus, que diseñó una especie de hacha de mano que apenas cambió durante un millón y medio de años, lo cual nos dice mucho de su carácter innovador. Pero la primera evidencia de arte no llegaría hasta la aparición de nuestra especie , el homo sapiens" explica el neurocientífico Peter Ulric Tse, profesor en la universidad de Dartmouth College (EE.UU).

Nightmare Machine Imágenes tratadas por un algoritmo que las dota de un aspecto terrorífico. ©Nightmare Machine

La explicación de Ulric Tse a esto es que algo en el córtex frontal de nuestro cerebro cambió, y ese cambio fue clave para que nos volviéramos más creativos. "Nuestros circuitos neuronales nos brindaron la capacidad de pensar en tales cosas, crearlas y pintarlas, e incluso dibujar objetos que no podrían existir, como un león con cabeza humana. Alguien hace 40.000 años tuvo que imaginarlo y luego ir y dibujarlo", cuenta el científico.

Obviamente, las máquinas no cuentan con este bagaje. Pueden engullir y procesar toda esta información pero no son producto de ella, no está en su ADN cultural. ¿Pueden, aun así, ser creativas? "Primero deberíamos preguntarnos qué es la creatividad", dice Leire Legarreta, científica de datos y profesora en la Universidad de Mondragón. "Provenimos de una cultura en la que siempre se nos ha hecho creer que el concepto de creatividad es un concepto muy ligado a las artes y alejado de funciones más técnicas, una visión sin duda muy limitada", afirma.

Siendo así, y asumiendo que la creatividad es la capacidad o facilidad de crear o inventar , la investigadora asegura que no podemos dudar de la capacidad de una máquina para poner en relación conceptos que hasta el momento nadie había conectado. "Si sabemos cómo hacerlo, podemos utilizar técnicas de aprendizaje automático para diseñar nuevos soportes gráficos, generar nuevos textos con sentido o resolver problemas de forma nunca antes planteadas", explica en respuesta a Xataka a través de la plataforma YouCheck.

Legarreta señala, además, que muchos algoritmos de búsqueda incluyen en el proceso aleatoriedad para, de esta forma, conseguir mejores resultados, "que no es otra cosa que lo que ha venido haciendo durante años y años la propia naturaleza en su proceso creativo". Apostilla, sin embargo, que tal vez el proceso debería incluir una última fase que valide el atractivo del resultado así diseñado. "Para esto poca ciencia se me ocurre, como tampoco la hay para predecir el éxito la obra de un artista, ¿o sí?", se pregunta. "Ante la duda, siempre nos quedará la opción de testear en el mercado el producto diseñado, algo en lo que, al fin y al cabo, una máquina también nos puede ayudar", concluye.

Aprender e imitar

Lo cierto, no obstante, es que sí hay ciertos factores que pueden ayudar a pronosticar el éxito de una creación artística. En eso, de hecho, se basan sistemas de inteligencia artificial en ámbitos, por ejemplo, como el de la música. El productor ganador de un Grammy Alex Da Kid usó el sistema de inteligencia cognitiva Watson (de IBM) para analizar cinco años de textos periodísticos, sentencias del Tribunal Supremo, artículos de Wikipedia o sinopsis de películas populares para reconocer los temas culturales más significativos.

Después, Watson estudió el tono de los artículos, blogs y tuits al respecto para conocer lo que la gente se sentía sobre ellos. También analizó las letras de las canciones más populares y su composición para encontrar patrones útiles, progresiones de acordes y géneros. Con todo ello compuso 'Not easy' (No es fácil), su primera canción cognitiva -en torno al concepto de "corazón roto"- que interpreta junto con X Ambassadors, Elle King y Wiz Khalifa.

La investigadora (y pianista) y experta en informática aplicada a la música Emilia Gómez cree que un algoritmo de generación de sonido o música puede ser creativo por sí mismo y generar material musical interesante, complementando la creatividad humana. Esta científica del departamento DTIC de la Universidad Pompeu Fabra -que lidera el proyecto europeo HUMAINT sobre el impacto de la inteligencia computacional en el comportamiento humano- asegura que, en general, la creatividad musical es algo difícil de definir. "Se entiende por creativo algo que es nuevo y tiene un valor. Y esa definición es subjetiva y depende del oyente o receptor", sostiene.

La música no es ni mucho menos el único campo artístico en el que se usa la inteligencia artificial. En 2015, investigadores de varias universidades mostraron al mundo por primera vez cómo un algoritmo podía separar y recombinar el contenido y estilo de las pinturas más famosas, aplicándolo a fotografías para crear imágenes artísticas en el proyecto DeepArt.

En abril de 2016, un proyecto de Microsoft, ING, la Universidad Técnica de Delft (Países Bajos) y varios museos demostró -con Next Rembrandt- que unos algoritmos y una impresora 3D podían pintar un cuadro de Rembrandt. Más tarde, el grupo artístico Softlab e IBM Watson expusieron en público una escultura creada por esta tecnología cognitiva, bautizada como 'La primera escultura pensante', inspirada en Gaudí. Google no podía faltar en la lista, con herramientas como Deepdream, creadora del primer videoclip realizado por una inteligencia artificial.

El investigador español Manuel Cebrián lleva años trabajando en proyectos de este tipo, primero como investigador jefe de la Unidad Data61 en la Organización de Investigación Científica e Industrial de la Commonwealth (CSIRO, en Australia) y ahora como parte del grupo en el MIT Media Lab del MIT (el Instituto Tecnológico de Massachusetts). Cebrián asegura que sí: las máquinas sí pueden ser creativas. Para demostrarlo, creó una 'Máquina de pesadillas' (Nightmare Machine) mediante algoritmos de aprendizaje profundo de última generación a los que había enseñado a reconocer patrones en imágenes que causan terror y a crear, en base a ellos pero a su libre albedrío, imágenes capaces de asustar.

Después, el investigador usó esta tecnología para un proyecto humanitario con Unicef llamado 'Empatía profunda' (DeepEmpathy). Consiste en usar fotografías de conflictos armados para transformar, mediante IA, imágenes de barrios de todo el mundo con un filtro que simule cómo quedarían tras un ataque. Cebrián también dio vida a Shelley, una inteligencia artificial que puede escribir relatos de terror de forma colaborativa con humanos.

La colaboración entre arte y tecnología es lo que ha vehiculado la obra de Alberto Levy un ingeniero que desde muy temprano se interesó por cómo facilitar y potenciar esta interacción. Su última actuación fue en la inauguración de la Mobile Week Coruña el pasado noviembre, donde usó un algoritmo que él mismo ha diseñado para producir una representación visual a partir de la medición de la actividad eléctrica de su cerebro. En este caso lo hizo mientras escuchaba, sobre el escenario, la música de la banda municipal de La Coruña. Un show que ha llevado ya a países como India, Reino Unido, Colombia, Argentina, Brasil o Italia, cargado únicamente con su electroencefalógrafo portátil.

Alberto Levy Alberto Levy durante una de sus actuaciones

"Lo que hago es colaborar con talentos locales relacionados con la música o las bellas artes, con un resultado sorprendente", asegura Levy. Su propósito con esta obra es explorar las posibilidades de autoría en el arte, ya que no está claro quién es el autor. "¿Es la audiencia, los músicos, el algoritmo, yo mismo?", se pregunta. Su respuesta: es una creación colaborativa que se realiza en tiempo real y es muy singular porque no se puede repetir nunca, el resultado es único e involuntario, porque se basa en la actividad cerebral que no podemos controlar", explica.

Creatividad… ¿y arte?

Los expertos consultados coinciden en que sí, una máquina puede ser creativa. Eso no significa que pueda crear obras de arte, que son palabras mayores. ¿Puede? De acuerdo con Ulric Tse hay varios grados de creatividad y el ser humano no fue capaz de producir arte como tal hasta que no llegó a la fase de homo sapiens. ¿Podría establecerse un desarrollo similar en el caso de la IA? El neurocientífico ve una barrera clara: "las máquinas no pueden sentir emoción ni, por tanto, convertirla en arte".

Luis Beltrán, catedrático del departamento de Lingüística General e Hispánica de la Universidad de Zaragoza es más tajante. Asegura que las máquinas no pueden crear arte que no sea arte muerto, una mera imitación. Tal y como lo ve, el arte "es la expresión simbólica dirigida a las generaciones futuras; es la forma de comunicarnos entre generaciones que no coinciden en el tiempo". Pero las máquinas -asegura- no pueden crear símbolos, solo imitarlos. Tampoco hablan al futuro sino a los vivos.

En su artículo Arte e inteligencia artificial, Beltrán sostiene que el debate sobre si las máquinas pueden producir arte es una manifestación parcial del gran debate de la Modernidad: el problema del Hombre-Dios. "La era moderna ha sustituido a Dios por el sujeto humano en el eje del Universo. Y se ha planteado divinizar al hombre", afirma. "No es casual -prosigue- que, puesto que tiene que asumir capacidades superiores, pretenda traspasar sus propias capacidades a las máquinas".

El experto asegura que una de las consecuencias del debate sobre el Hombre-Dios y la muerte de Dios es el debate sobre la muerte del arte. "Y si el arte muere, bien puede asumirlo una máquina", concluye. Gómez, por su parte, no tiene claro si el hecho de que no haya una intencionalidad invalida que algo pueda calificarse como 'arte', ya que la persona que programa la máquina probablemente sí la tenga. ¿Se dirigió Mozart conscientemente a las generaciones futuras?", se pregunta.

Lo que está claro es que los intentos por perfeccionar la creatividad artificial pueden ayudar a conocer mejor la imaginación humana, y que está podría ser la base de sistemas híbridos que se asienten en las capacidades de ambos (personas y máquinas). Tal vez no se equivoquen ni Beltrán ni el conocido escritor Yuval Noah Harari en que aspiramos a ser dioses.

CES 2019 certifica que el sector se ha vuelto loco por la inteligencia artificial

$
0
0

CES 2019 certifica que el sector se ha vuelto loco por la inteligencia artificial

Los expertos pronosticaron que la inteligencia artificial tendría un papel relevante en la edición de este año del CES, mucho mayor que en años precedentes. Y no se equivocaron.

Ciertamente, era difícil mantener la IA fuera del mayor evento de electrónica de consumo del mundo cuando algunas de las mayores compañías del sector (Apple, Microsoft, Amazon, Google, Intel) están invirtiendo millones en esta tecnología.

La IA estuvo presente en el CES desde el mismo discurso de apertura, protagonizado por Ginny Rometty, la CEO de IBM. Durante el mismo, entre otros muchos temas, Rometty hizo referencia al concepto de 'IA amplia'.

Este concepto viene ser el paso intermedio entre la actual IA débil y la IA general, que "une el aprendizaje y el razonamiento" de tal modo que permite "aprender más a partir de menos ejemplos". El líder de IBM también sostuvo la necesidad de defender la transparencia y confiabilidad de la IA, evitando así las 'cajas negras'.

I. P. Park, presidente de LG Electronics, también protagonizó más tarde una conferencia; y, en ella, acompañado de su robot CLOi GuideBot, habló sobre LG ThinQ y explicó que aunque en los últimos 100 años los electrodomésticos han reducido en un 75% el tiempo que dedicamos a las tareas domésticas, la cantidad de trabajo cognitivo involucrado ha aumentado significativamente:

"La respuesta está en la IA, pero sólo si podemos lograr [desarrollar] una verdadera inteligencia. [...] Nuestra ambición es ir más allá de nuestro papel actual como fabricante líder de productos electrónicos de consumo y convertirnos en un agente de innovación del estilo de vida, en favor de una forma de vida verdaderamente inteligente".

Ginni Rometty Ginni Rometty, CEO de IBM y ponente inaugural del CES.

Novedades de las grandes marcas en la edición 2019 del CES

Esta parecer ser la intención de todas las grandes marcas asistentes al CES:

  • Intel anunció que estaba colaborando con Facebook para desarrollar un chip de IA (el Nervana Neural Network Processor o NNP-I) que sería lanzado al mercado en algún momento de este año y presentaría menores requisitos de hardware y energía que la competencia. El chip sería una solución basadas en CPUs con la que poder plantar cara al predominio de Nvidia.

  • Por su parte Nvidia aprovechó para anunciar la siguiente fase de otra colaboración, la que mantiene desde hace tiempo con el fabricante Mercedes-Benz, destinada en este caso a desarrollar una arquitectura de IA para sus vehículos autónomos y ofrecer tanto conducción autónoma como funciones de "cabina inteligente". El objetivo es ofrecer tecnologías más eficientes e integradas para controlar funciones como el cierre de puertas, el frenado, la dirección asistida, etc.

  • Qualcomm también ha presentado novedades en el campo de los vehículos: una plataforma llamada 'Snapdragon Automotive Cockpit Platform' con la que pretende dotar a los coches de funciones como el procesado de voz o la clasificación de objetos.

  • Pero las tecnológicas no quieren que el coche sea el único lugar en el que pasemos parte de nuestro día a día rodeados de inteligencia artificial. Kohler nos ofrece un 'inodoro inteligente', con luz, altavoces e integración con Alexa, llamado Numi 2.0 Intelligent Toilet.

  • Por su parte, Samsung ha aprovechado el CES para presentar sus nuevas plataformas robóticas, que incorporan varios de los avances en IA de la compañía. Su producto más destacable en este campo fue el Samsung Bot Care, del que realizó su primera demostración pública y que se ha desarrollado con el objetivo de ayudar a los usuarios a mejorar su calidad de vida.

Imagen | Web oficial del CES & Asa Mathat

La Teoría de Juegos puede facilitar la colaboración humano-robot

$
0
0

La Teoría de Juegos puede facilitar la colaboración humano-robot

En las últimas décadas, el avance de la robótica ha generado que humanos y robots tengamos que trabajar unos junto a otros. Pero esa cohabitación es complicada: han sido numerosos los accidentes sufridos por humanos a cuenta de robots industriales.

Sin embargo, dichos robots no sólo han hecho poco uso hasta ahora de las oportunidades ofrecidas por la interacción física, sino que carecen de una metodología sistemática que les permita ayudarnos de manera segura y versátil.

Ahora, un equipo de investigadores de la Universidad de Sussex, el Imperial College de Londres y la Universidad Tecnológica de Nanyang (Singapur) se han puesto manos a la obra para desarrollar dicha metodología recurriendo para ello al control adaptativo y la teoría del juegos, y facilitar así que los robots puedan 'echarnos una mano' en tareas como el entrenamiento deportivo o la rehabilitación física.

Las bases teóricas

La teoría de juegos es una rama de la economía cuyas bases teóricas se han aplicado a muchas otras ciencias, pues se basa en el estudio las decisiones en las que para que el éxito de un agente (persona, empresa, especie animal o dispositivo robótico) depende de tener en cuenta las decisiones tomadas por el resto de los agentes que intervienen en la situación.

"La teoría de juegos ha tenido un importante impacto en la economía durante el último siglo y desembocado en varios premios Nobel, como el de Nash", explica Etienne Burdet, responsable de robótica humana en el Departamento de Bioingeniería del Imperial College y miembro del equipo de investigadores.

Por otra parte, llamamos 'control adaptativo' al método de control utilizado por un controlador que debe adaptarse a un sistema controlado con parámetros que varían, o son inicialmente inciertos (un ejemplo de este sistema sería un avión en pleno vuelo, cuya masa va disminuyendo durante el trayecto por el consumo de combustible).

Trabajando hombro con hardware

El objetivo de los investigadores fue "desarrollar un controlador de robot interactivo capaz de comprender la estrategia del usuario humano y reaccionar de manera óptima a sus movimientos" y demostrar así que la combinación de ambas perspectivas podía dar lugar a una interacción estable entre ambos y permitirles realizar la tarea con éxito con el mínimo esfuerzo.

Para aplicar con éxito la teoría de juegos a la interacción humano-máquina, los investigadores tuvieron que hacer frente al reto de cómo lograr que el robot conozca las intenciones del ser humano.

Gracias a la combinación de IA y control adaptativo, el robot era capaz de aprender constantemente de las acciones de su usuario humano y adaptar en consecuencia sus propios movimientos.

En palabras de Yanan Li, otro de los investigadores del equipo,

"Al permitir que el robot identifique el comportamiento de los usuarios humanos y explote la teoría de juegos para permitir que el robot reaccione de manera óptima a los mismos, hemos creado un sistema que permite que los robots trabajen junto con humanos como lo hacen los humanos entre sí".

Los científicos han detallado su investigación en un artículo publicado recientemente en la Nature Machine Intelligence, en el que explican cómo se puede usar para ayudar a un sobreviviente de un accidente cerebrovascular a volver a entrenar su control motor.

Pero las aplicaciones potenciales de esta tecnología son numerosas: a nadie se le puede escapar su utilidad para dar soluciones a varios de los grandes obstáculos actuales de la conducción autónoma.

Viewing all 3104 articles
Browse latest View live