Quantcast
Channel: Magazine - inteligencia-artificial
Viewing all 3104 articles
Browse latest View live

El CEO de Salesforce afirma que si no convertimos la IA en un "derecho humano" se agravará la desigualdad global

$
0
0

El CEO de Salesforce afirma que si no convertimos la IA en un

A medida que las tecnologías vinculadas a la inteligencia artificial se vuelven más versátiles y presentes en nuestro día a día, se va generando una nueva brecha digital, potencialmente peor que la que sufrimos hoy en día, que puede dividir a la humanidad entre aquellos con y sin acceso a la IA.

Al menos, eso fue lo que defendió Marc Benioff, CEO de Salesforce en un debate sobre la "Cuarta Revolución Industrial" celebrado en el Foro de Davos.

La IA, ni buena ni mala... la clave está en el acceso

Benioff se suma así a otros destacados hombres de negocios de Silicon Valley, que, como Elon Musk, advierten del potencial peligro que la IA supone para la humanidad.

Sin embargo, su enfoque es diferente: el peligro ya no estaría para él en la tecnología en sí, sino en el hecho de que parte de la humanidad no pueda usarla:

"Ninguno de nosotros puede decir realmente a dónde se dirige la inteligencia artificial. Pero sí sabemos una cosa: la tecnología nunca es buena o mala, lo importante es lo que hacemos con ella".

"La cuarta revolución industrial es un momento histórico extraordinario. [Tiene] un gran potencial como vía para crear nuevos empleos, desarrollar nuevas curas de enfermedades y aliviar el sufrimiento".

"Por otro lado, existe el riesgo de que empeore las desigualdades económicas, raciales, ambientales y de género. Nos arriesgamos a una nueva división tecnológica entre los que tienen acceso a la IA y los que no".

El sector tecnológico, cada vez más expuesto a debates éticos

"Esto puede verse precisamente en San Francisco, donde vivo y donde tenemos una verdadera crisis de desigualdad", añadió, en referencia a su reciente protagonismo durante la campaña en favor de una propuesta de ley destinada a aumentar los impuestos a las grandes empresas tecnológicas para financiar medidas en favor de los 'sin techo'.

Lo que Benioff denuncia ya no es sólo una problemática vinculada a la desigualdad entre clases sociales, sino la desigualdad militar entre países, a raíz de que sólo algunos lleguen a desarrollar armamento autónomo, por ejemplo:

"Hoy en día, sólo unos pocos países y algunas empresas tienen acceso a la mejor IA del mundo. Y quienes lo tengan serán más inteligentes, más sanos, más ricos y, por supuesto, sus fuerzas armadas estarán significativamente más avanzadas.

"¿Qué estamos haciendo para que estas tecnologías sean realmente accesibles para todos? Sinceramente creo que la IA será un nuevo derecho fundamental. Cada persona y cada país deben tener acceso a esta nueva tecnología crucial".

Hace tiempo que la dimensión ética del uso de la inteligencia artificial entró de lleno en el debate público, aunque la comunidad internacional parece estar lejos de construir consensos...

Así, mientras que, por un lado, la Unión Europea tiene pensado aprobar en unas semanas sus directrices para el uso ético de la IA, grandes potencias como China sostienen en la ONU que "no debería haber premisas preestablecidas que puedan impedir el desarrollo de esta tecnología".

Imagen | Thomas Cloer


Conceptos de inteligencia artificial: qué es el aprendizaje por refuerzo

$
0
0

Conceptos de inteligencia artificial: qué es el aprendizaje por refuerzo

En la psicología conductista se hace un especial hincapié en describir las leyes generales que rigen nuestra conducta voluntaria.

Uno de los conceptos que manejan para ello es el de 'condicionamiento operante', al que definen como un proceso de aprendizaje por el cual una acción en particular es seguida por algo deseable (haciendo más probable que el sujeto repita la acción) o por algo no deseable (disuadiendo de realizarla).

Así, por ejemplo, estudiamos porque nos satisface sacar notas más altas, o jugamos a un videojuego porque nos satisface jugar. Y para satisfacer esos estímulos positivos (reforzamientos), estudiamos/jugamos más horas y recurrimos a procesos de prueba y error para evaluar nuevas estrategias de estudio/juego. Esto es, aprendemos gracias al condicionamiento operante.

Aplicando la psicología conductista a la máquina

Pues bien: el aprendizaje por refuerzo (o aprendizaje reforzado) se basa en aplicar exactamente este mismo principio a las inteligencias artificiales, con el fin de que puedan aprender por sí mismas. Y es que las IAs cuentan con dos ventajas de las que nosotros los humanos no disponemos: no se cansan ni se aburren, y realizan sus tareas extraordinariamente rápido.

Ambos factores les permiten sacar un gran rendimiento al proceso de prueba/error: pueden ganar y perder millones de partidas de un videojuego, tomando nota de qué decisiones les llevaron en cada caso a la victoria o a la derrota, privilegiando unas y descartando otras hasta que su estrategia sea absolutamente perfecta.

Y donde decimos 'videojuego', podemos hablar igualmente de una amplia gama de tareas, siempre que la IA pueda recibir un feedback de lo acertado de sus decisiones.

Uno de los aspectos fundamentales del aprendizaje por refuerzo es que resuelve el difícil problema de correlacionar acciones inmediatas con sus consecuencias a largo plazo: como los humanos en la vida real, esta clase de algoritmos a veces tienen que operar en un entorno de retorno demorado, donde puede ser difícil entender qué acción conduce a qué resultado en muchos pasos de tiempo.

¿Qué necesitamos para formular un problema básico de aprendizaje de refuerzo?

Gráfico Aprendizaje reforzado

Necesitamos un agente (por ejemplo, Pacman) en un estado determinado (la ubicación) dentro de un medio ambiente (el laberinto). PacMan cuenta con una u otra recompensa (positiva: puntos por comer; negativa: morir si se cruza con un fantasma) en base a qué acción (desplazamiento a un nuevo estado) realice.

Pero más allá de la recompensa existe lo que llamamos recompensa acumulada esperada que consiste, como habrás averiguado, en ganar el juego. El aprendizaje por refuerzo se base, de este modo, en un bucle de estado / acción / recompensa.

Para dar forma a una política óptima, el agente se enfrenta al dilema de explorar nuevos estados (exploración) al tiempo que maximiza su recompensa acumulada esperada (explotación).

Si no ha quedado claro el ejemplo de Pacman, siempre podemos intentar llevarlo al mundo real: imaginemos que tenemos un macaco en casa (ejemplo real donde los haya) y que está aburrido en nuestro salón, con la televisión apagada y el mando de la TV sobre la mesa.

Hasta aquí tenemos un agente (el simio en cuestión), un ambiente (el salón) y un estado (la tele apagada). Por curiosidad o mero aburrimiento, el macaco puede empezar a toquetear botones del mando: la acción, que generará un nuevo estado.

Si este estado no le gusta (la TV permanece apagada, lo cual constituye una recompensa negativa) terminará optando por no tocar esos botones y pasar a otros (o a una secuencia concreta de los mismos) hasta que maximice su recompensa acumulada esperada (que la TV no sólo se encienda, sino que muestre algún documental sobre la vida en la selva).

Macaco viendo la TV Foto: Eugene Wei

Cuando DeepMind popularizó el aprendizaje por refuerzo

Uno de los padres fundadores de la inteligencia artificial, Marvin Minsky, creó en 1951 una máquina que imitaba a una rata a la hora de aprender a navegar por un laberinto.

Su nombre era SNARC (Ordenador Estocástico de Refuerzo de Similitud Neural) y empleaba una forma simplificada de aprendizaje reforzado. La metodología prometía, pero durante los siguientes 65 años fue imposible escalarla a situaciones más complejas (y útiles).

En 2016, DeepMind presentó ante el mundo a AlphaGo, una IA que, tras ser entrenada durante varios meses en el análisis de miles de partidas jugadas por humanos fue capaz de batir a un campeón humano de Go, un juego complejo al que las máquinas nunca habían jugado bien recurriendo a la programación convencional, por la dificultad para incorporar la estrategia al código.

Pero, un año más tarde, DeepMind presentaba una nueva IA, AlphaGo Zero, que con menos de 3 días de entrenamiento fue capaz de ganar 100 veces seguidas a su predecesora. ¿Residía el secreto en una mayor potencia de procesamiento?

No, la clave reside en que AlphaGo Zero aprendió a jugar ella sola mediante aprendizaje por refuerzo, jugando millones de partidas contra sí misma, hasta que aprendió, como decíamos antes a maximizar su recompensa acumulada esperada.

La siguiente generación, AlphaZero, tuvo resultados aún más impresionantes. Y permite atisbar, por fin, la aplicación del aprendizaje por refuerzo a empresas de mayor calado para la humanidad.

Quiero saber más

Si esta introducción al concepto de aprendizaje por refuerzo no ha hecho sino abrir tu apetito de conocimiento y ahora quieres sumergirte en la materia (y descubrir los algoritmos Q-learning y SARSA, o los procesos de decisión de Markov, o...), te recomendamos (siempre que sepas inglés) acceder:

  • A los materiales online (PDFs y vídeos) del curso sobre aprendizaje por refuerzo del University College de Londres.
  • A la versión online del libro "Reinforcement Learning: An Introduction", de Andrew Barto (del Autonomous Learning Laboratory) y Richard S. Sutton (investigador de DeepMind); que incluye código de ejemplo y soluciones.

Imagen | Howard Lake (Flickr)

Investigadores del MIT crean un método para reducir automáticamente el sesgo racial en las tecnologías de reconocimiento facial

$
0
0

Investigadores del MIT crean un método para reducir automáticamente el sesgo racial en las tecnologías de reconocimiento facial

La semana pasada, la congresista estadounidense Ocasio-Cortez volvía a poner sobre la mesa mediática la polémica en torno al sesgo racial de los algoritmos de inteligencia artificial, específicamente los de reconocimiento facial.

En su intervención, la congresista afirmaba que "si no arreglas el sesgo [del humano que desarrolla el algoritmo], lo único que estás haciendo es automatizar [el sesgo]. Y eso es aún más peligroso".

Pero, ¿y si no fuera así? ¿Y si la IA pudiera contar con un mecanismo que permitiera no sólo detectar su propio sesgo sino también de ponerle remedio? Es decir, de automatizar el arreglo del sesgo.

Un algoritmo para hacernos la autocrítica

Casi al mismo tiempo, que Ocasio-Cortez generaba titulares en torno a este problema, un equipo de científicos del Computer Science and Artificial Intelligence Laboratory del MIT publicaba una posible solución al mismo, en la que llevaban un tiempo trabajando.

Su propuesta consiste en un algoritmo capaz de detectar y reducir el sesgo de un sistema de reconocimiento facial 'remuestreando' rápidamente los datos con los que se le entrena, y asegurándose así de que se adapta a una gama más amplia de grupos humanos. Según explican en la presentación de su 'paper',

"nuestro algoritmo fusiona la tarea original de aprendizaje con un codificador automático variacional destinado a evaluar la estructura latente dentro del conjunto de datos, y luego usa de manera adaptativa las distribuciones latentes detectadas con el fin de reevaluar la importancia de ciertos aspectos de los datos durante el entrenamiento".

Pilot Parliaments Benchmark Ejemplos extraídos del Pilot Parliaments Benchmark. Imagen de Joy Buolamwini (vía MIT Media Lab).

Los investigadores no prometen que su tecnología vaya a poder eliminar todos los posibles sesgos, pero la repercusión de su uso puede ser ciertamente significativa: en las pruebas que realizaron, el sistema de MIT redujo el "sesgo categórico" en un 60% sin que ello afectase a la precisión del reconocimiento facial.

Los investigadores realizaron las pruebas recurriendo al 'Pilot Parliaments Benchmark', un dataset creado 'ex profeso' en 2017 para evaluar los sesgos de género y raciales detectados en algunos de los datasets más usados en aquel momento: se compone de fotos de políticos de los parlamentos con mayor paridad de género tanto de Europa como de África.

Posiblemente, las aplicaciones y dispositivos con funciones de reconocimiento facial que usamos (o que usan sobre nosotros) en nuestro día a día tarden todavía un tiempo en implementar esta solución o alguna similar. Pero una vez que lo haga su efecto se hará notar, sobre todo, legitimando socialmente el uso de la biometría por parte de las fuerzas de seguridad.

Vía | Engadget

¿Cómo puedo aprovechar hoy las oportunidades de la inteligencia artificial?

$
0
0

¿Cómo puedo aprovechar hoy las oportunidades de la inteligencia artificial?

A estas alturas de siglo, la mayoría de los trabajadores tienen presente que la inteligencia artificial revolucionará el mercado de trabajo y la economía. Lo que nadie tiene del todo claro es cómo cambiará exactamente. Dicho esto, sí se ven patrones que pueden ayudarnos a actualizar nuestras habilidades de cara a la IA, y es que la automatización se hará cargo de muchas de las actuales.

Sabemos que profesiones construidas sobre un conjunto limitado de habilidades (montar hamburguesas, rellenar bases de datos, conducir, revisar código…) son altamente automatizables. Otras, como gestionar equipos de trabajo, diseñar productos, cuidar de personas o atender a clientes, resultan mucho más difíciles de sustituir. Pero, ¿cómo me subo a la ola de la inteligencia artificial? Empezando por entender su idioma.

Saber leer, escribir, y aprender a programar

Hace cien años la tasa de alfabetización en España rondaba el 60%. Cuatro de cada diez personas no sabían ni leer ni escribir, una cifra que se ha reducido por debajo de una de cada diez. No hay duda que transmitir información de forma escrita ha sido clave a la hora de encontrar trabajo en el pasado. Incluso hubo una brecha durante décadas entre los que tenían o no esta habilidad.

Hoy día ha surgido una nueva brecha: el analfabetismo digital. Ya tenemos varias generaciones de nativos digitales que saben usar la tecnología y, sin embargo, ni la comprenden ni son capaces de modificarla. No saben leer ni escribir código, una habilidad que se demanda cada vez más y para la que hay escasez de perfiles en nuestro país, como veremos abajo. Pero habrá otra que aún tenga más vigencia: aprender a programar.

Aprender Inteligencia Artificial

Quien haya estudiado algún lenguaje de programación se habrá dado cuenta de que todos ellos guardan cierta semejanza y comparten una estructura subyacente, del mismo modo que el inglés, el español y el chino se parecen un poco. Los comandos y operaciones no son muy diferentes entre sí, y sin embargo hay diferencias puntuales que obligan a estar permanentemente actualizados.

Como en cualquier idioma, constantemente aparecen neologismos y nuevas expresiones que se registran en medios de comunicación como este. Dentro de unas décadas será normal que los alumnos aprendan a programar del mismo modo que los lectores aprendieron a diseccionar frases mediante el análisis sintáctico. Hoy todos sabemos qué es un objeto directo, aunque este cambie.

La IA aporta muchas oportunidades

Como adelantábamos en la entrada, el mundo laboral también cambiará, y la programación será una de las bases del lenguaje común en un entorno en el que máquinas y personas compartirán puestos de trabajo. Será importante entenderlas, pero también repararlas, mejorarlas y saber predecir qué consecuencia tiene la aplicación masiva de una tecnología.

Imaginemos un teléfono móvil aislado de la red. Sin duda es una herramienta interesante que puede ayudarnos en muchas tareas diarias. Todos incluyen calculadora, linterna, un sistema de notas y, en modelos como el Huawei P20 Pro podemos hacer uso del traductor en tiempo real o de la mejora de las fotografías sin estar conectados.

Sin embargo, el potencial de los teléfonos inteligentes radica en que no haya diez, cien o mil, sino millones interconectados. Una vez se alcanza una masa crítica de usuarios, el mundo cambia. Ya lo hizo con la automoción a mitad del siglo pasado o con el ordenador a finales del mismo. Y ahora está volviendo a ocurrir de la mano de la inteligencia artificial.

Inteligencia Artificial Robotica

Para hacer frente a estos cambios ya se demandan más programadores, científicos de datos y expertos en inteligencia artificial de los que hay formados. Es decir, que si nos ponemos a estudiar hoy sobre estos campos de trabajo (ojo, una reconversión completa de habilidades puede requerir años), será más fácil encontrar un empleo en los próximos años. Si buscáis vuestro futuro campo de estudio a dos o cinco años vista, esos tres de arriba podrían ser buenos candidatos.

Hay tanta demanda que los sueldos están explotando

El salario de los desarrolladores de programas informáticos con mucha experiencia (seniors) se multiplicó por seis entre 2017 y 2018 en Estados Unidos, según la firma PayScale. Los diseñadores gráficos con la misma experiencia multiplicaron por dos su salario, al igual que los desarrolladores de móviles y los ingenieros de visión artificial. La demanda es tal comparada con la oferta que los sueldos están explotando en determinados sectores.

La tecnología se ha convertido en el principal impulsor de la economía, pero no solo se demandan habilidades técnicas. Sí, se siguen requiriendo ingenieros de computación en la nube, inteligencia artificial, análisis de macrodatos, ciberseguridad, RV/AV y marketing digital. Sin embargo, los puestos de dirección de participación comunitaria (generalmente orientados a redes sociales y aplicaciones con usuarios) subieron un 300% su salario en el mismo periodo. Y lo mismo ocurre con otras habilidades.

La necesidad de desarrollos éticos, especialmente en sistemas de inteligencia artificial opacos, son hoy día imprescindibles. Es por eso que la filosofía, arrinconada durante las últimas décadas, tiene ahora la presencia que le corresponde en el desarrollo de aplicaciones, programas y desarrollos web, pero también nuevos sistemas de seguridad e incluso ciudades completas. Si la inteligencia artificial nos cambia la vida, que sea a mejor.

¿Por dónde empiezo a estudiar para aprovechar estas oportunidades?

Al igual que estudiar un idioma nuevo o empezar a hacer deporte desde cero, hay dos factores clave que determinan su éxito: constancia y avance moderado. Si abrimos hoy un código de Github sin saber nada de programación, probablemente acabemos desmoralizados en el primer asalto.

Podemos empezar con cursos de introducción de la programación como los que ofrece Coursera o MiríadaX, que son gratuitos y muy genéricos; o ir directamente a un lenguaje de programación como Java, Python, HTML & CSS… Siempre habrá tiempo para cambiar de estudios, y todos aportan. Este tipo de lenguajes es básico para poder después aprender algo relacionado directamente con inteligencia artificial, big data o Machine Learning.

Ia

También es posible apuntarse a algún boletín relacionado con los avances de la inteligencia artificial o adquirir algún libro de divulgación. Son útiles a la hora de ser conscientes del estado del arte de esta tecnología. En 2018 se han publicado unos cuantos como ‘Un mundo robot’, de Javier Serrano; ‘El empleo del futuro’, de Manuel Hidalgo; ‘El tsunami tecnológico’, de Ángel Bonet, o ‘Inteligencia artificial: 101 cosas que debes saber hoy sobre nuestro futuro’, de Lasse Rouhiainen.

No son los únicos, y cada uno aporta un enfoque interesante sobre el futuro que nos espera. Como adelantábamos, una reconversión laboral implica una gran cantidad de esfuerzo, como hacer un FP o una carrera (que también las hay relacionadas con estas temáticas). Sin embargo, saber de qué es capaz la IA, sus posibilidades y limitaciones, pueden ayudarnos en el futuro.

Imágenes | iStock/gorodenkoff, iStock/scyther5, Franck V., monsitj

Algunos directivos de grandes empresas ven un futuro de despidos masivos gracias a la IA… pero no se atreven a decirlo en público

$
0
0

Algunos directivos de grandes empresas ven un futuro de despidos masivos gracias a la IA… pero no se atreven a decirlo en público

"Nunca lo admitirán en público, pero muchos de vuestros jefes quieren que las máquinas os reemplacen lo antes posible".

Así empezaba un artículo, escrito por Kevin Roose (del New York Times), que ha levantado ampollas por sus implicaciones en el debate sobre la repercusión de la inteligencia artificial sobre el empleo. ¿Su título? "La oculta agenda de automatización de la élite de Davos".

Roose se desplazó la semana pasada a Davos (Suiza) para asistir al Foro Económico Mundial, el evento que reúne anualmente a la élite política y económica global, y que este año le dedicaba una especial atención a la inteligencia artificial.

En una mesa de debate dedicada a la Cuarta Revolución Industrial, Marc Benioff, CEO de Salesforce, defendió la importancia de tomar decisiones sobre la adopción de la IA con un ojo puesto en la igualdad.

Sin embargo, a juzgar por el relato de Roose, muchos otros directivos de grandes compañías desplazados a Davos no compartían con él (no, al menos, en privado) su preocupación.

Grandes empresas que no harán lo que dicen

"Me he dado cuenta de que sus respuestas a las preguntas sobre la automatización dependen en gran medida de quién esté escuchando. [En público] hablan de la necesidad de proporcionar una red de seguridad para las personas que pierden sus trabajos como resultado de la automatización".

"Pero en entornos privados [...] estos ejecutivos cuentan una historia diferente: están compitiendo en automatizar sus propias plantillas para mantenerse a la cabeza de sus competidores; [mostrando] con poca consideración por el impacto que esto tengo sobre los trabajadores".

En palabras de Roose, estos ejecutivos ven la IA como la solución mágica que les permitirá ahorrar a base de reducir departamentos con miles de trabajadores a unas pocas docenas. Cita las palabras de Mohit Joshi, presidente de la consultora Infosys, una firma especializada en automatización de empresas:

"Antes la gente tenía como metas ir reduciendo el 5-10% para reducir su plantilla. Pero ahora preguntan: '¿Por qué no podemos hacerlo con el 1% de la gente que tenemos?'".

Roose denuncia que pese a que, según un informe publicado por Deloitte, el 53% de las empresas ya habían empezado en 2017 a usar máquinas para realizar tareas antes asignadas a humanos (y que la cifra podía subir hasta el 72% este año), los altos directivos preferían seguir amparándose tras eufemismos.

Así, los empleados no están siendo reemplazados, sino "liberados de tareas onerosas" y las empresas no les están despidiendo, sino "experimentando una transformación digital". Según el periodista del NYT,

"para tener claro el modo en que algunos líderes estadounidenses hablan en privado de la automatización hay que escuchar a sus homólogos en Asia, quienes rara vez intentan ocultar sus objetivos.

Terry Gou, presidente del fabricante taiwanés de electrónica Foxconn, dijo que la compañía planea reemplazar por robots al 80%o de sus trabajadores en 5-10 años".

En cualquier caso, Roose finaliza su artículo dejando la puerta abierta a la esperanza y retomando el discurso de Benioff, esta vez en boca de Erik Brynjolfsson, director de la Iniciativa de Economía Digital del MIT

"La elección no es entre automatizar y no hacerlo, sino entre usar la tecnología de una manera que crea prosperidad compartida o concentrar la riqueza".

Las redes arden... con análisis e ideas

Como suele decirse popularmente, los foros anglohablantes de Internet "han ardido" reaccionando a lo expuesto en el artículo. Las reacciones, más o menos indignadas, propositivas o apocalípticas son de lo más variopinto.

La mayoría coinciden, eso sí, en que apostar el "aquí no pasa nada" no parece la mejor opción.

Protesta

Desde los que apuestan por la formación como forma de 'reciclar' a los trabajadores que pierdan su empleo (una solución que Roose no ve viable a gran escala), hasta los que asumen como inevitable el aumento del paro estructural y apuestan por la 'renta básica universal'.

Pero no todo el mundo parece ver sostenible ese curso de acción:

"No importa qué ideologías fantasiosas se te ocurran: si tienes una economía en la que cada vez menos personas participan en la creación de valor, y cada vez más personas consumen recursos, es una situación extremadamente inestable y todas tus ideas sofisticadas que 'funcionarían en teoría' puede irse rápidamente a paseo".

E incluso hay quien ve insostenible que políticos y/o empresas traten de luchar contra la tendencia automatizadora:

"La realidad es que cada trabajo que pueda ser automatizado, será automatizado. Si el gobierno trata de regular la automatización, otro país lo adoptará y se convertirá en el líder de la producción".

Otros piden que los políticos empiecen a debatir de verdad sobre esto lo antes posible:

"Dice mucho sobre lo poco preparados que estamos que tan sólo haya un candidato en las elecciones [presidenciales] de 2020 en los Estados Unidos hablando sobre esto (el demócrata Andrew Yang) y el resto siga hablando de normas, estándares y objetivos de un mundo que murió hace una década".

Hay quien prefiere, sin embargo, analizar la situación estableciendo paralelismos con lo ocurrido en otras etapas históricas de cambio económico, desde el feudalismo al fordismo.

Para algunos, cabe comparar la automatización con lo que significaba la tierra en la era feudal, antes de que la artesanía y el comercio obligaran a demandar mano de obra cualificada:

"Una 'clase propietaria' rica que contaba con todos los medios de producción (y mano de obra menos calificada) y no tiene ningún incentivo para abrir el acceso a la misma".

"La automatización podría generar una pequeña clase adinerada y a una clase baja en rápida expansión con poco acceso a la propiedad propia de los medios de producción".

Otros señalan que, al margen de lo que cada cual opine sobre las grandes multinacionales, directivos y accionistas de las empresas automatizadas deberán terminar mirándose en el espejo de Henry Ford, el fundador del fabricante homónimo de automóviles, que se hizo rico doblando el sueldo a sus empleados para que ellos fueran los primeros que apostasen por comprar el coche que fabricaban:

"Los capitalistas no pueden obtener ganancias si no hay mercados para comprar sus productos. Lo lamentarán cuando se den cuenta de que no pueden absorber su producción y que realmente necesitan trabajadores para adquirir sus productos".

Imagen | Steve Jurvetson (vía Flickr)

Vía | NYT & Reddit & Hacker News & Resetera

Alrededor del 90% de las solicitudes de patente relacionadas con la IA se rechazan inicialmente por ser demasiado 'abstractas'

$
0
0

Alrededor del 90% de las solicitudes de patente relacionadas con la IA se rechazan inicialmente por ser demasiado 'abstractas'

Desde 2010, se han presentado más de 154.000 patentes de relacionadas con la inteligencia artificial en todo el mundo, más de la mitad de ellas en los EE.UU.

El ritmo con el que se presentan, además, no hace sino crecer. Y, sin embargo, cada vez resulta más complicado obtener la aprobación de dichas patentes.

La abogada de patentes Kate Gaudry ha analizado las solicitudes recibidas por la Oficina de Patentes y Marcas de los Estados Unidos, y ha descubierto que el 90% de las mismas son rechazadas en el primer intento.

¿El motivo alegado? Que no se trataban de ideas patentables, al ser "demasiado abstractas".

Michelle Holoubek, otra abogada de patentes que ha investigado esta cuestión, explica en Bloomberg que en el caso de algunas de estas solicitudes de patente,

"Los evaluadores vuelven y dicen: 'Sí, pero al fin y al cabo son sólo matemáticas'. Afirman que el procesamiento de datos por parte de una computadora es sólo el objetivo con que se usa una computadora".

Así está la cosa en Estados Unidos...

No es extraño que las patentes reciban un rechazo inicial a su solicitud, pero el porcentaje (9 de cada 10) sí es bastante notable. Y también lo es el dato de las solicitudes que terminan siendo aprobadas en última instancia: en torno al 20%.

Entre las solicitudes rechazadas, Gaudry encontró un poco de todo: sistemas de memoria artificial, para estimar las posibilidades de fallo en infraestructuras o para estimar el interés de la audiencia.

La Oficina de Patentes tuvo que publicar una guía hace unas semanas para aclarar cómo debe evaluarse la eligibilidad de una patentes.

Detrás de todo esto se encuentra un tira-y-afloja legal, desde que hace 5 años la Corte Suprema dictó una resolución sobre software de negocios en el que se establecía que no bastaba con tomar una idea abstracta y aplicarla en un ordenador de propósito general.

A raíz de que esa resolución se utilizó en 2016 como base para rechazar unas patentes de Electric Power Group LLC, el ritmo de aprobación de patentes de IA ha descendido.

¿Y en Europa?

Pero... ¿qué ocurre mientras en la Unión Europea? ¿Bajo qué criterios se regula la patentabilidad de innovaciones vinculadas a la IA?

En noviembre del año pasado entraron en vigor las nuevas directrices de examen de solicitudes de patente de la Oficina Europea de Patentes (EPO), que ahora incluyen una nueva subsección sobre "inteligencia artificial y aprendizaje automático".

Como explica la firma legal Abril Abogados, en la UE...

"... la EPO considera que [...] la IA puede formar parte de lo que se consideraría un tipo de 'invención implementada en ordenador' donde a pesar de subyacer un método matemático, esta invención puede producir un efecto técnico más allá de lo puramente matemático.

"Por tanto, la EPO considera que se puede superar los requisitos de patentabilidad siempre que se pueda demostrar que con dicha IA se consigue obtener un efecto técnico adicional inventivo".

Como ejemplo de una aplicación de la inteligencia artificial que satisface este requisito la EPO, por ejemplo, cita el uso de una "red neuronal" en un aparato destinado a detectar latidos irregulares.

La app más popular de benchmarking de móviles empieza a medir también el rendimiento en inteligencia artificial

$
0
0

La app más popular de benchmarking de móviles empieza a medir también el rendimiento en inteligencia artificial

No descubrimos nada si afirmamos que la inteligencia artificial es un concepto de moda en el mundo tecnológico, con todo lo que ello conlleva: que muchas veces no pase de ser humo, un mero reclamo promocional.

Uno de los sectores en los que la IA ha empezado a ser utilizada como gancho para llegar al consumidor ha sido el de los smartphones.

Así, Google lanzó al mercado hace unos meses su Pixel 2, que usa la IA para hacer fotos en modo retrato sin necesidad de doble cámara, y Huawei ha dotado a varios de sus terminales con una NPU (Unidad de Procesamiento Neuronal).

De hecho, según un informe publicado hace un año por Gartner, para 2022 hasta un 80% de los smartphones estarán equipados con inteligencia artificial.

Un estándar para evaluar la inteligencia (artificial) de nuestros móviles inteligentes

Pero, si la IA va a inundar el mercado móvil, será necesario contar con algún sistema de referencia que nos permita comparar objetivamente las capacidades de cada modelo, y separar así el grano de la paja más allá de las afirmaciones de cada fabricante.

AnTuTu, la aplicación más popular de benchmarking para iOS y Android, que actualmente ya permite comparar el rendimiento de otros aspectos del equipo (incluidos UX, GPU, RAM, CPU, I/O) ha anunciado que, a partir de ahora, permitirá comparar también las capacidades de IA de nuestros móviles.

El problema es que, como reconocen los propios desarrolladores de AnTuTu, medir la IA es algo bastante complejo, pues el propio término no hace sino englobar varias tecnologías diferentes, y la industria no ha establecido hasta ahora ningún estándar unificado. Pero AnTuTU afirma estar en disposición de ofrecer este estándar, gracias a la colaboración con varios fabricantes (Samsung, Nvidia, Qualcomm, MediaTek, etc).

La nueva herramienta de medición de AnTuTu ha sido bautizada como 'AI Review' y, aunque aún con ciertas incompatibilidades según qué modelo usemos- puede ser testada en fase beta.

AI Review apuesta por someter al terminal donde se ejecuta a dos test de rendimientos claramente diferenciados. Son los siguientes:

  • Prueba de clasificación de imágenes: Consiste en la revisión de 200 imágenes de prueba y se basa en la red neuronal Inception v3.

  • Prueba de reconocimiento de objetos: Consiste en la revisión de un vídeo de 600 fotogramas y se basa en la red neuronal SSD de MobileNet. Si el dispositivo carece de aceleración de IA, la prueba se lleva a cabo haciendo uso de la CPU y del software TensorFlow Lite, que -avisan desde AnTuTu- no porporciona puntuaciones fiables.

Prueba de reconocimiento de objetos Prueba de reconocimiento de objetos (Fuente: AnTuTu)

La puntuación final se otorgará en base a una media entre los resultados de ambos, dependientes a su vez de la precisión y rapidez del proceso, si bien se penalizará a los modelos que intenten apostar por la velocidad para intentar compensar una baja precisión.

Vía | VentureBeat

Llegó el "Roomba para el jardín": iRobot nos presenta a 'Terra', su primer robot autónomo para cortar el césped

$
0
0

Llegó el

iRobot, el fabricante de los famosos robots aspiradores Roomba, está ampliando su línea de negocios llevando su tecnología fuera del hogar, concretamente al jardín. La compañía está haciendo oficial a 'Terra', un robot cortacésped autónomo, que funciona casi como los Roombas pero que en vez de aspirar corta el césped.

Terra emplea la misma tecnología de mapeo y movimiento autónomo que los Roomba, lo que cambia es el objetivo, además de algunas pequeñas modificaciones tanto en el diseño como en la forma de operar, esto para garantizar una buena operación al aire libre.

Por el momento sólo en beta para Alemania

Otra de las diferencias respecto a los Roomba, es que para delimitar el espacio a podar necesitaremos colocar unos beacons inalámbricos, los cuales emitirían una señal que se traducirá como una barrera para el robot Terra.

La operación de Terra también se hará a través de una aplicación móvil y conexión WiFi. Desde la app podremos monitorizar la actividad, conocer el estatus de la batería, las zonas podadas, programar rutinas e incluso definir la altura del césped para ajustar las cuchillas.

Según iRobot, la autonomía de Terra es de apenas una hora, mientras que el tiempo de recarga sería aproximadamente dos horas. Tal y como ocurre con los Roomba, Terra volverá a su base de carga cuando esté por descargarse su batería y volverá al trabajo cuando se haya recargado.

Irobot Terra Mower 3

Su diseño lo hace completamente impermeable, ya que la idea es que viva al aire libre. Cuenta con un sistema de doble cuchilla modular con un sistema de muelles, que sirven para proteger el sistema en caso de que las cuchillas golpeen una roca u otro objeto. Además, en la parte frontal, Terra cuenta con una especie de parachoques que lo protege en caso de impactos no previstos.

iRobot está lanzando a Terra por el momento sólo en Alemania como parte de una beta para unos cuantos usuarios, pero la idea es lanzarlo de forma oficial tanto en Alemania como en Estados Unidos más adelante durante este año. Eso sí, la compañía no ha querido anunciar el precio, y los pronósticos apuntan a que no será muy barato.

Irobot Terra Mower 4
Irobot Terra Mower 1

El vídeo que pone el rostro de Steve Buscemi en el cuerpo de Jennifer Lawrence es un recordatorio del peligro de los deepfakes

$
0
0

El vídeo que pone el rostro de Steve Buscemi en el cuerpo de Jennifer Lawrence es un recordatorio del peligro de los deepfakes

Vídeos manipulados usando herramientas de inteligencia artificial para mostrar algo que no es real. De eso se tratan los 'deepfakes', esa tendencia que surgió en un inicio para crear vídeos porno falsos, donde se ponía el rostro de actrices famosas en los de actrices porno, y que con el tiempo ha saltado a diversas áreas que van desde el simple entretenimiento hasta cosas más serias y preocupantes, como la manipulación política.

A pesar de los intentos por prohibirlos, con subeddits cerrados, prohibiciones en redes sociales y webs porno y hasta demandas por parte de algunas actrices afectadas, los 'deepfakes' están aquí y sus efectos podrían ser desastrosos, ya que dan fuerza a 'fake news' y son ideales para intervenir en asuntos políticos. Hoy tenemos una nueva muestra de sus capacidades, y como veremos a continuación es algo realmente impresionante y aterrador.

No, Jennifer Buscemi no existe, aunque parezca real

El siguiente vídeo fue creado por el usuario de Reddit conocido como VillainGuy, quien lo publicó a inicios de este año. El vídeo nos muestra al actor Steve Buscemi en el cuerpo de la actriz Jennifer Lawrence durante una conferencia en los premios Golden Globe de 2016. Lo impresionante del vídeo es el nivel de sincronía entre ambos actores, llegando a un punto que incluso podríamos pensar que es real si no supiéramos que estamos viendo algo físicamente imposible.

Según la información, VillainGuy habría creado el vídeo usando la herramienta gratuita 'faceswap' y se habría dedicado a entrenar la inteligencia artificial con contenido multimedia en alta resolución de Buscemi. Después de varias horas de codificación y renderizado en un ordenador con GPU y procesador de gama alta, nació 'Jennifer Lawrence-Buscemi'.

El vídeo estalló hoy en redes sociales tras algunos señalamientos por parte de legisladores de los Estados Unidos, quienes alertaron sobre el peligro de los vídeos deepfakes ahora que se acercan las elecciones de 2020. De hecho, hay informes que apuntan a que el Departamento de Defensa de los Estados Unidos ya está trabajando con investigadores con el fin de encontrar la forma de detectar cuando un vídeo es falso o ha sido manipulado con herramientas como 'faceswap'.

Hoy día, se dice que un grupo de investigadores ya han desarrollado una herramienta que detecta cuando se trata de un vídeo deepfake, la cual se basa en el conteo, frecuencia y ritmo de los parpadeos que tiene la persona del vídeo, lo cual aseguran se ha convertido en la técnica más eficiente hasta el momento con un 95% de efectividad.

Siwei Lyu, profesor asociado de ciencias de la computación de la Universidad de Albany, comentó: "Un ser humanos adulto y sano parpadea de forma regular entre cada 2 y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos 'deepfake'". Lyu también señala que con el paso del tiempo los vídeos deepfake perfeccionarán sus técnicas y cada vez será más difícil identificarlos.

Otro de los aspectos que preocupan de esta tecnología, más allá de los vídeos porno y las fake news, es que son posibles herramientas de chantaje para gente inocente, gente que no tiene los recursos para frenar la difusión de estos vídeos y que pueden desde dañar su imagen hasta convertirse en posibles sospechosos de un crimen.

Los políticos y los personajes famosos tienen la posibilidad de contratar un equipo que se haga cargo ante casos de difamación a través de vídeos deepfake, pero un ciudadano común no. Por ello, ahora mismo son la parte más vulnerable ante la explosión de esta tecnología. Sí, estamos ante una aterradora forma de dañar a personas inocentes por medio de vídeos falsos, los cuales tienen la capacidad de mostrarlos participando en actos violentos y criminales que nunca han cometido.

Presentamos Xataka Captcha, nuestra nueva sección para estar al día de todo sobre inteligencia artificial

$
0
0

Presentamos Xataka Captcha, nuestra nueva sección para estar al día de todo sobre inteligencia artificial

Hace unas semanas os presentábamos Xataka Captcha, nuestro podcast de ocho capítulos sobre inteligencia artificial. La acogida del mismo ha sido tan buena y creemos que la inteligencia artificial va a ser tan clave en los próximos años (y bueno, también lo está siendo ya) que hemos decidido dar un pequeño salto: desde ahora, Xataka Captcha pasa a ser también una sección (en texto) dentro de Xataka, con publicaciones diarias con todas las novedades y los contenidos más importantes sobre IA.

Nuestra idea es que Xataka Captcha se convierta en referencia dentro de la cobertura de todo lo relacionado con la inteligencia artificial. Por supuesto que tendremos las últimas innovaciones dentro del sector (desde cosas tan triviales como este algoritmo que puede generar imágenes de algunos platos con sólo leer la receta hasta cosas tan importantes como cómo se está utilizando el deep learning para analizar el genoma humano), pero también las implicaciones sociales (los directivos que no se atreven a discutir en público cómo será el futuro con IA o el polémico debate sobre el sesgo racista del reconocimiento facial).

También tendremos espacio para revisar cómo la inteligencia artificial está afectando a otros sectores con los que, en principio, no parece tener mucho en común (como la religión) y dedicaremos tiempo a repasar cómo se ha ido tratando todo lo relacionado con esta disciplina en películas y series (ya hemos analizado el caso de 'Matrix' y el de 'Chappie'). Y, además, una de mis secciones favoritas: en la que explicaremos conceptos relacionados con IA de forma sencilla y con ejemplos (el primero ya lo tenemos: aprendizaje por refuerzo).

Y mucho, mucho más. Puedes darte una vuelta ya por la sección e ir explorando todos los contenidos, que irán creciendo a diario.

Si bien se trata de una sección patrocinada por Huawei, el contenido es 100% editorial de Xataka: la marca no tiene ni voz ni voto en los temas que tratamos ni en el contenido de los mismos.

¿En qué cambia la "Experiencia Xataka" de siempre?

Xataka Captcha Así se ve Xataka Captcha en portada

¿Qué va a cambiar en Xataka para los lectores habituales? En una palabra: nada.

Al igual que ocurre con nuestra sección Xataka Basics, los contenidos de Xataka Captcha se agrupan en su propia sección y no aparecerán junto al resto de noticias. En su lugar, podéis ver una franja horizontal en portada en la que aparecerán los artículos más recientes de Xataka Captcha.

De forma puntual, alguna de las noticias publicadas en Xataka Captcha sobre inteligencia artificial, que consideremos importante y con suficiente entidad, aparecerá también en la portada de Xataka. Al igual que ocurre con Xataka Basics, esto no será habitual: nuestro objetivo es seguir como hasta ahora, con Xataka Captcha siendo una sección independiente para poder profundizar en todos los temas relacionados con la inteligencia artificial sin llegar a saturar o aburrir al lector que no está interesado en la temática.

Cómo seguir Xataka Captcha

Además de en nuestra propia portada y en nuestra sección creada a tal efecto, podrás seguir Xataka Captcha a través de Twitter (@xatakacaptcha), Facebook (en nuestra página Xataka Captcha) y Flipboard (con nuestra nueva revista).

¡Esperamos que os guste!

Y, por si te lo has perdido, todavía puedes escuchar nuestro podcast

No creas todo lo que veas: deepfakes y la inteligencia artificial aplicada al arte del engaño (Despeja la X, 1x34)

$
0
0

No creas todo lo que veas: deepfakes y la inteligencia artificial aplicada al arte del engaño (Despeja la X, 1x34)

Cada vez va a ser más difícil creer lo que vemos y oímos, y la culpa la tiene la inteligencia artificial. Una de las ramas de esta tecnología se utiliza para crear los llamados deepfakes, vídeos y audios en los que se suplanta a otra persona y que parecen totalmente reales: lo que dice y hace esa persona parece real aunque quien estás viendo y oyendo no es real.

Lo hemos visto sobre todo en vídeos pornográficos en los que aparecen celebridades que nunca han grabado esos vídeos, pero también con casos de políticos pronunciando frases que nunca dijeron o haciéndolo en otro contexto y con otros gestos. Los deepfakes están cada vez más de moda, y representan una amenaza relevante para nuestra forma de entender nuestro mundo. Sobre todo, si no sabemos diferenciar lo real de lo que no lo es.

El porno como detonante del fenómeno deepfake

Gal Gadot, la protagonista de 'Wonder Woman', aparecía en un vídeo pornográfico que evidentemente no había grabado. Alguien había logrado superponer su cara a la de la actriz porno y producir el efecto de que efectivamente era la actriz la que estaba haciendo de todo con su hermanastro.

Gal

Aquel vídeo fue uno de los detonantes de una fiebre por los deepfakes, una técnica basada en sistemas de inteligencia artificial que permiten entrenar una plataforma con una serie de imágenes, audios o vídeos para que ésta genere nuevos contenidos o los superponga a contenidos reales suplantando parte de estos para hacerlos pasar por reales.

El efecto final es espectacular, y aunque en algunos casos es fácil diferenciar un vídeo deepfake del que no lo es, esa detección -analizando por ejemplo el parpadeo de quien aparece en el vídeo- se está volviendo cada vez más difícil. Hoy en día cualquiera puede generar estos vídeos con una aplicación, un buen conjunto de datos -ambos fácilmente accesibles con frecuencia- y un ordenador con una tarjeta gráfica potente.

El éxito de este tipo de contenidos ha sido tal que incluso plataformas de porno online han tenido que vetarlo por considerar que no se han publicado con el visto bueno de quien aparece en ellos. Otras muchas plataformas y servicios como Reddit o Twitter también están tratando de prohibirlos, pero es casi imposible detener su difusión, y la casi inexistente regulación al respecto no ayuda.

La amenaza es clara en un momento en el que las noticias falsas están a la orden del día, pero este tipo de contenidos también se podrían usar para chantajear o acosar a todo tipo de personas con esos vídeos falsos que podrían ser tomados como verdaderos. El fenómeno magnifica una realidad que ya estamos viviendo -la difusión de bulos a través de redes sociales, por ejemplo-, y lo hace aún más difícil de detectar.

De todo ello hablamos esta semana en el episodio de nuestro podcast, Despeja la X. Para hacerlo contamos con Javier Lacort, redactor de reportajes en Webedia, y Javier Pastor, un servidor, editor sénior en Xataka. En la producción y presentación está como siempre Santiago Araújo. Todo lo que escucháis en este podcast es audio real y no generado por una inteligencia artificial, pero eso podría cambiar en el futuro a la vista de tendencias como la de los deepfakes.

Escucha y suscríbete a 'Despeja la X'

DLX

A continuación puedes escuchar el episodio de esta semana. Si lo prefieres, puedes suscribirte directamente en cualquiera de las plataformas en las que estamos, así no tendrás que preocuparte cada vez que salga una nueva entrega.

Cada semana, un nuevo capítulo

Y recuerda: cada jueves tienes un nuevo capítulo de nuestro podcast Despeja la X, en el que analizamos a fondo el gran tema tecnológico de cada semana.

Puedes aprovechar este pequeño parón para darle una oportunidad al resto de podcasts de Xataka:

  • Captcha (iVoox, iTunes, Pocket Casts, YouTube o Spotify): el gran viaje a través del presente y futuro de la Inteligencia Artificial que busca explicar a fondo cómo funciona la llamada "nueva electricidad", la disciplina científico tecnológica más apasionante de los siglos XX y XXI.
  • Insert Coin (iVoox, Spotify o iTunes): cada programa, un invitado super especialista y técnico en algunos de los temas que nos fascinan.
  • Xataka Now (iVoox, Spotify o iTunes): la actualidad tecnológica diaria, resumida en forma de informativo de unos minutos.

¡Gracias por acompañarnos!

El LG V40 ThinQ llega oficialmente a España: éstos son los precios y disponibilidad del smartphone con 5 cámaras

$
0
0

El LG V40 ThinQ llega oficialmente a España: éstos son los precios y disponibilidad del smartphone con 5 cámaras

Lo conocíamos estrenando el año y se confirmaban los rumores: el nuevo móvil de la serie V de LG integraba tres cámaras traseras y dos delanteras, siendo así cinco en total. Y ahora, tras unas semanas, por fin sabemos el precio y la disponibilidad del LG V40 ThinQ para España.

Ahora hace pocos días os contamos en detalle sobre el último buque insignia de LG V40 ThinQ en nuestro análisis, probando a fondo esas cinco lentes que combinan entre otras cosas un gran angular y un teleobjetivo. De 6,4 pulgadas y con un diseño familiar, ahora el último V ThinQ ya tiene fecha de compra para los interesados.

6,4 pulgadas y un notch que nos suena

El frontal del LG V40 ThinQ recoge el testigo del LG G7 ThinQ, optando por una muesca y no por los bordes simétricos del LG V30 ThinQ. El notch (de anchura estándar) corona una pantalla de 6,4 pulgadas OLED FullVision con resolución QHD (3.220 x 1.440 píxeles), buscando ofrecer esos negros de calidad característicos de esta tecnología de paneles y apostando de nuevo por el máximo brillo.

La parte trasera sí presenta un diseño que nos recuerda más a su antecesor, aunque como veremos a continuación la parte superior se ve irrumpida por más lentes y esos "dos ojos" ahora ocupan algo más. Además, cuenta con certificación IP68 de resistencia a agua y polvo.

Lg V40 Thinq 04

El zoom óptico se suma a los móviles de LG

La cuestión fotográfica cobra importancia cuando se trata de un teléfono de primera línea y en los últimos meses la tendencia parece a combinar los distintos tipos de lentes y sensores para ampliar el tipo de fotografías que poder hacer con un smartphone. En LG habíamos visto doble cámara apostando por el gran angular, pero con el LG V40 ThinQ se combinan una cámara de 12 megapíxeles (f/1.5) con un súper gran angular de 107 grados (f/2.4) y un teleobjetivo en su parte trasera, teniendo triple cámara trasera.

Lg V40 Web

Hay modo retrato, graba y reproduce HDR 10 y 4K, así como funciones como el triple disparo para facilitar la creación de contenido. La parte frontal se ve provista a su vez de una doble cámara, optando por un sensor de 8 megapíxeles (f/1.9) y una lente gran angular de 90 grados (f/2.2) con un sensor de 5 megapíxeles.

Sin olvidarse de cuidar el sonido

En sus interiores cuenta con un procesador Snapdragon 845, acompañado de 6 GB de RAM y estando así a la altura de la memoria media que estamos viendo en la alta gama de Android. Dispone de una memoria de almacenamiento base de 128 GB, pero puede ampliarse a 2 TB mediante microSD.

Lg V40 Thinq 02

Todo esto lo alimenta una batería de 3.300 miliamperios/hora, con soporte a carga rápida Quick Charge 3.0 (y compatible 4.0). Además, el sonido vuelve a ser un punto importante para el fabricante y dispone de Quad DAC Hi-Fi de 32 bits y un altavoz Boombox con reverberación.

Ficha técnica del LG V40 ThinQ

LG V40 ThinQ

Procesador

Qualcomm Snapdragon 845

RAM

6 GB LPDDR4X

Almacenamiento

64 GB o 128 GB UFS 2.1

Dimensiones

158,7 x 75,8 x 7,7 mm (169 g)

Pantalla

6,4 pulgadas 19,5:9 QHD+ OLED FullVision (3.120 x 1.440 / 538 ppp)

Batería

3.300 mAh / Carga rápida QC 3.0

Cámaras traseras

Óptica estándar: 12 Mpíxeles (f/1.5, 1,4 μm y 78 grados)
Gran angular: 16 Mpíxeles (f/1.9, 1,0 μm y 107 grados)
Teleobjetivo: 12 Mpíxeles (f/2.4, 1,0 μm y 45 grados)

Cámaras frontales

Óptica estándar: 8 Mpíxeles (f/1.9, 1,12 μm y 80 grados)
Angular: 5 Mpíxeles (f/2.2, 1,12 μm y 90 grados)

Sistema operativo

Android 8.1 Oreo

Conectividad

Bluetooth 5.0 BLE, NFC y WiFi 802.11ac
USB-C 2.0

Otros

Protección IP68, DAC Sabre HiFi de 32 bits, sonido Boombox, HDR10 y reconocimiento facial

Precio

899 euros

Precio y disponibilidad del LG V40 ThinQ en España

El último buque insignia de LG llega por primera vez en exclusiva de manera online, y la compañía lo lanza con una oferta especial que incluye el regalo de una smart TV de 28 pulgadas valorada en 259 euros (si se opta por la tienda online). En su página web vemos que por el momento está disponible en color azul y el precio de partida es de 899 euros.

Lg V40 Thinq 03

La compra podrá realizarse a partir del 4 de febrero, así que si nos interesa este terminal sólo tendremos que esperar unos pocos días para poder adquirirlo por este canal y beneficiarnos del regalo del televisor.

Crean, recurriendo a redes neuronales, una remasterización de Final Fantasy VII que cuadruplica la resolución de sus texturas

$
0
0

Crean, recurriendo a redes neuronales, una remasterización de Final Fantasy VII que cuadruplica la resolución de sus texturas

Los estudios Square Enix, creadores de 'Final Fantasy', han lanzado al mercado varias versiones remasterizadas de los videojuegos de esta popular saga, con el fin de mejorar su visualización en las pantallas modernas, de una mayor resolución que las de la época.

Esta labor de remasterización suele reducirse al reescalado de las texturas de los escenarios prerrenderizados por los que se mueven los personajes en 3D, y no siempre ha recibido una buena valoración por parte de los fans.

Por eso, ha sido precisamente un grupo de fans de Final Fantasy VII los que se han puesto manos a la obra para crear, a través de un mod, su propia remasterización. Lo inesperado es que está siendo aplaudida por su soberbio aspecto gráfico.

La fórmula: modders aficionados + redes neuronales

FF7 Remako HD Graphics es el nombre del susodicho mod, lanzado en fase beta (ya puedes descargarlo desde MEGA), que permitirá a los propietarios de cualquier versión para PC del videojuego (la original de hace dos décadas, la reedición de 2012 o la versión para Steam) disfrutar de unos gráficos a la altura del épico título.

Pero, ¿cómo han logrado unos aficionados emprender la pesada tarea de remasterizar cientos de miles de texturas y, además, tener más éxito que la compañía propietaria de la saga? Fácil: tirando de inteligencia artificial.

O más concretamente, lo han logrado recurriendo a un tipo de GAN (una red generativa antagónica) llamada ESRGAN, que trata de evitar pérdidas de calidad (aberración cromática o pixelado, por ejemplo) a la hora de generar automáticamente versiones de las texturas con mauor resolución.

Los creadores sólo tuvieron que alimentar ESRGAN con un pack de imágenes duplicadas (a menor y mayor resolución) para entrenar la IA: una red neuronal intentaba reescalar la imagen de menor resolución y una segunda red evaluaba el resultado comparándola con la otra imagen.

El resultado final se puede apreciar aquí:

Sorprende mucho que una tecnología como ésta sólo esté siendo usada por aficionados (y, recientemente, por Nvidia para remasterizar un juego de Nintendo) no por las desarrolladoras.

Sin embargo, cabe esperar que se multiplique el uso de esta tecnología y se impulse la aparición de una nueva ola de remasterizaciones de clásicos del videojuego. Por el momento, tú mismo puedes informarte aquí sobre cómo usar ESRGAN en tu propio equipo.

Una técnica de aprendizaje desarrollada en el MIT permite que dos IAs aprendan el doble de rápido intercambiando consejos entre sí

$
0
0

Una técnica de aprendizaje desarrollada en el MIT permite que dos IAs aprendan el doble de rápido intercambiando consejos entre sí

El gran salto dado por la inteligencia artificial a la hora de enfrentarse a humanos en partidas de juegos de mesa radica en haber pasado de ser depositaria de miles de heurísticas diseñadas por humanos (el caso de DeepBlue) a ser capaz de aprender autónomamente, tras jugar miles o millones de partidas contra sí misma (por ejemplo, AlphaZero).

Sin embargo, por notable que haya sido esta evolución, la IA todavía se 'atasca' cuando el juego en el que debe participar se asemeja a la vida a la vida real (múltiples jugadores, información oculta, combinación de recompensas a corto y largo plazo, etc), pues provoca que sea extremadamente complejo calcular la 'política óptima'.

Nosotros aprendemos en sociedad, y las IAs también deberían

Por ello, los científicos están explorando estrategias para ayudar a las máquinas a superar estos obstáculos. Una línea de trabajo prometedora consiste en basarse en cómo aprendemos los humanos: el aprendizaje por refuerzo parece estar basado en cómo aprende la mente de un individuo... pero ningún individuo aprende en soledad.

Todo aprendizaje se basa en relacionarse con otros, sea mediante la interacción en tiempo real, sea mediante la lectura de textos ajenos. Así que los investigadores del Laboratorio de IA MIT-IBM Watson han decidido afrontar este problema explorando una solución basada en un modelo de aprendizaje social.

Miao Liu, uno de los miembros del equipo, explica la base de su modelo:

"Las máquinas carecen del conocimiento procedente del sentido común, que nosotros desarrollamos cuando somos niños. Por eso necesitan mirar millones de frames de vídeo y pasar mucho tiempo computando para jugar bien un juego.

E incluso entonces, carecen de formas eficientes de transferir sus conocimientos al equipo, o de generalizar sus habilidades a la hora de afrontar un nuevo juego.

Si pudiéramos entrenar robots para que aprendieran de otros y fueran capaces de generalizar su aprendizaje a otras tareas, podríamos empezar a coordinar mejor sus interacciones entre ellos y con los humanos".

Una idea con potencial

Y los resultados, por ahora, han sido prometedores: tras situar a un par de bots en un sala virtual por la que tenían que aprender a navegar hasta ser capaces de tocar simultáneamente paredes opuestas de la misma, se comprobó que el tiempo necesario para finalizar con éxito su aprendizaje se reducía en un 50% o más cuando ambos agentes podían comunicarse entre sí para aprovechar los conocimientos del compañero.

El algoritmo enseña a los agentes cuándo pedir ayuda y cómo adaptar los consejos a lo hayan aprendido hasta ese momento. La clave reside en que ninguno de los agentes ocupa la función de experto: ambos pueden actuar como 'estudiante' o como 'maestro', según lo requiera la situación. Y, ¿cómo saben si lo requiere?

  • En una primera fase, ambos agentes deciden con cada paso respectivo si pedir o dar consejos basándose ​​en su confianza de que el próximo paso que den los acercará a su objetivo.

  • En la segunda fase, se actualizan las políticas de asesoramiento de cada agente: con cada actualización, el maestro mejora en la tarea dar el consejo correcto en el momento adecuado.

En palabras de Matthew E. Taylor, responsable de investigación en IA del Banco Real de Canadá,

"La idea de proporcionar medios para mejorar el aprendizaje del estudiante, en lugar de simplemente decirle qué hacer, tiene mucho potencial.

Si bien el 'paper' se enfoca en escenarios relativamente simples, creo que el marco podría ampliarse para ser útil en videojuegos multijugador (como DOTA 2), o en fútbol robótico".

Fuente | MIT News Imagen | Joe Wolf

Wattpad lanza su propia editorial y recurre al deep learning para decidir qué historias publicar

$
0
0

Wattpad lanza su propia editorial y recurre al deep learning para decidir qué historias publicar

Recientemente, la plataforma de publicación de historias online Wattpad anunciaba su debut como editorial para lanzar al mercado norteamericano, en formato libro, relatos publicados en su sitio web. Lo hará a través del sello Wattpad Books, que ya ha elegido qué seis historias publicará a partir de otoño de este año.

Nada fuera de lo normal si no fuese porque la elección de dichos títulos se ha realizado recurriendo a la inteligencia artificial, concretamente a una tecnología propia denominada Story DNA. A partir de ahora, ésta ayudará a analizar los más de 500 millones de historias que acoge la plataforma.

Así detecta Wattpad las historias más prometedoras

Ashleigh Gardner, una de los directivos de Wattpad, afirma en declaraciones a Forbes que "recurriendo al machine learning, al deep learning y a las redes neuronales recurrentes, Story DNA Machine Learning deconstruye las historias en sus características elementales, como la estructura de las oraciones, el uso de las palabras y la gramática".

No sólo comparará las diferentes historias de Wattpad entre sí, sino también con obras de la literatura de dominio público.

Además de eso, Story DNA tendrá en cuenta datos relacionados con el engagement de los usuarios de Wattpad y, tras tener en cuenta todos los factores, las historias más destacadas por la IA quedarán en manos de un equipo humano de empleados de Wattpad, que leerá cada historia para decidir cuál es digna o no de publicarse. "Wattpad Books es arte y ciencia a partes iguales", resume Gardner.

Gracias a esta combinación de criterios, Wattpad ha elegido 6 historias del género 'young adult' buscando que sean representativas de las tendencias de consumo detectadas en 2018 entre sus 70 millones de usuarios, mayoritariamente millenials y miembros de la Generación Z: 'temática LGTB', 'personajes femeninos fuertes', 'diversidad tanto de autores como de personajes' y 'fin de los estigmas negativos sobre las enfermedades mentales'.

Más allá de Wattpad Books

La compañía ya hizo uso en 2018 de la tecnología Story DNA para clasificar y comparar las historias presentadas a los premios de la plataforma (los Wattys) con éxitos previos de Wattpad y los clásicos de la literatura, para "encontrar las obras más sobresalientes".

Ya entonces, Gardner explicaba que a medida que la compañía ha ido invirtiendo en mejorar las capacidades de aprendizaje automático de Story DNA, han logrado aumentar también el ritmo de descubrimiento de nuevas historias relevantes para su comunidad, proporcionando así "oportunidades para los escritores de todo el mundo".

Y es que el potencial de Story DNA no se limita a los Wattys ni a la publicación de libros: Wattpad está buscando también historias que pueda convertir en "programas de televisión, películas y proyectos digitales".

Y el uso del machine learning en la plataforma tampoco se limita al análisis de historias: Wattpad también utiliza esta tecnología para "mejorar la personalización en la plataforma [...] algunos experimentos de personalización han generado un aumento del 82% en el tiempo de lectura de los nuevos usuarios".

Vía | Forbes & Wattpad


"¿Quién va a querer eso? No entiendo por qué hay tanta obsesión por teléfonos que se doblan": Ken Hong de LG

$
0
0

LG no fabricará un smartphone plegable, aunque no lo descartan del todo. Así nos lo confirmó Kenneth Hong, director senior global de comunicaciones en LG, a quien entrevistamos durante el pasado CES 2019 y con quien charlamos de un montón de temas que no sólo envuelven a LG, sino a toda la industria tecnológica.

LG arrancó el año con fuerza mostrando su televisor enrollable, nuevo impulso para su plataforma de inteligencia artificial ThinQ y hasta una alianza con Amazon Alexa y con Apple, con la que añadirán nuevas capacidades y servicios a sus televisores. También aprovecharon para mostrar su tele 8K y reforzar su apuesta en el OLED. Y precisamente Ken Hong nos habló de todo esto desde una interesante perspectiva tanto de usuario como en nombre de la compañía.

Inteligencia artificial y asistentes virtuales

Ha pasado un año desde el lanzamiento de la plataforma de inteligencia artificial de LG, ThinQ, ¿qué han aprendido en todo este tiempo?

No sé si hemos aprendido o es que ahora somos conscientes de ello, pero nos quedó claro que implementar una IA o desarrollar una IA es sumamente difícil, pero tratar de que esa IA sea fácil de usar y conveniente es aún más complicado. Por ejemplo, que la gente no reconozca de inmediato los beneficios de la IA porque lo primero que piensan es que no quieren tener que hablar con una máquina, o no quieren que una máquina conozca su información personal, así que esto se vuelve una gran barrera. Es como si tener tecnología no fuera suficiente, tienes que convencer o educar a la gente sobre cómo se puede usarla de forma positiva.

La inteligencia artificial puede ser buena o mala, por ejemplo, Mark Zuckerberg dice que la IA es buena, mientras que Bill Gates dice que la IA es peligrosa. Creo que cualquier tecnología puede ser buena o mala, sólo depende de lo bien que lo uses, pero para educar a las personas a usar IA, eso va a tomar tiempo. Por ejemplo, hace poco apareció un video viral donde un niño pequeño usa a Amazon Alexa para hacer su tarea de matemáticas, él pregunta, ya sabes, "Alexa, ¿cuánto es cinco más cinco?" Sí, lo está usando para hacer trampa, ese fue el el mensaje del video. Y sí, puedes hacer trampa, pero también puedes hacer otras cosas. Creo que el hecho de que la gente piense que la tecnología es mala, eliminará empleos y cosas así, me sorprenden porque, para ser honesto, con la llegada del automóvil le quitamos empleos a los caballos. Eso es la tecnología, llega a reemplazar algo, pero con ese reemplazo llegan mejores cosas, como la creatividad, yo creo que el factor humano de la inteligencia artificial es precisamente la educación.

Durante la keynote de IP Park en el CES 2019, él mencionó que para LG el objetivo de la inteligencia artificial es poderse anticipar a nuestras necesidades para que así tengamos menos opciones y podamos aprovechar el tiempo en otras actividades ¿qué pasa aquí con las personas que siguen desconfiando de la tecnología? ¿Cómo las convencerán de que la IA les dará “una vida mejor” como aseguraba Park?

No creo que sea nuestro trabajo convencerlos, vamos, es nuestro trabajo pero no en ese sentido, y no me refiero sólo a LG, me refiero a todas las empresas, como Google. Nuestro trabajo es ser éticos y educar, no creo que necesitemos convencer, ya que si educas siguiendo tus principios éticos, las personas te seguirán, pero si no eres ético, si compartes datos sin permiso, si haces cosas como... tú sabes, como lo que las compañías de Silicon Valley han sido acusadas ​​de hacer, entonces la gente no confiará en ti. Así que no creo que sea nuestro trabajo convencerlos, nuestro trabajo es educarlos y seguir las reglas.

"No creo que sea nuestro trabajo convencerlos (a los consumidores de usar IA), nuestro trabajo es educarlos y seguir las reglas".

Si los consumidores ven que rompes las reglas, entonces no los culpo por no confiar en la AI. Todo esto está completamente en nuestras manos, en las manos de las compañías, para que confíen en nosotros, y tristemente muchas compañías de software y tecnología han fallado. Yo mismo lo veo, ayer eliminé Facebook de mi teléfono.

¿En serio, por qué?

Sí, porque pensé "voy a estar aquí y no voy a usar Facebook". No he usado Facebook durante varias semanas y he recibido una gran cantidad de mensajes, me cansé de que la mayoría de ellos son cosas tontas. Por ello decidí borrarlo.

¿Pero cuál fue tu principal razón para eliminar Facebook, por qué dejaste de usarlo?

No lo estaba usando porque me di cuenta que ya no podía confiar en él para mantener mis datos seguros.

Ken Hong Lg 1

¿Crees que el integrar IA en la mayor cantidad de dispositivos posibles ayudará a que vivamos mejor?

En algunos dispositivos sí. Creo que hay analizar caso por caso, creo que será muy útil para ciertos electrodomésticos, definitivamente en la cocina o cosas como esa. ¿Necesitamos AI en el baño? Probablemente no. ¿Necesitamos un inodoro con IA? No. Quiero decir, sólo para ciertas cosas, he visto cosas en Kickstarter como "smart algo, smart aquello"... y me preguntó ¿por qué? Y no se trata de inteligencia artificial, a veces sólo es conectividad, algo tan simple como la conectividad. Había un cojín para asiento que decían que era inteligente, ya que te dice que te levantes cada hora para estirarte... y me pregunto otra vez ¿por qué? Algunas cosas nos superan, incluso creo que algunas personas lo hacen parecer tonto. Pero ojo, esto no es malo, no estoy diciendo que no deberíamos hacerlo, pero si vamos demasiado lejos la gente no nos tomará en serio. Debemos tener cuidado de que si introducimos IA en un producto lo hagamos sabiendo que realmente será útil, si lo hacemos, cobramos dinero extra y resulta ser totalmente inútil, la gente no querrá IA la próxima vez. Esto es lo que tenemos que equilibrar.

"Algunos teléfonos cuestan 1.000 o 900 dólares porque ponen cosas allí que la gente nunca usará"

Por ejemplo Microsoft Office, sólo usamos como el 10% de las funciones y Microsoft desarrolla todo esto en caso de que lo necesitemos, lo que está bien, pero en un producto de hardware... si haces eso y creas cosas que pones allí en caso de que se necesiten, el coste aumenta, y así haces que la gente pague por cosas que nunca usará. Esto es todo un problema en los smartphones, algunos teléfonos cuestan 1.000 o 900 dólares porque ponen cosas allí que la gente nunca usará. Eso es lo que tenemos para controlar, por ejemplo, en los electrodomésticos porque son más grandes y eso puede hacerlos más costosos, como las lavadoras, así que tenemos que tener cuidado de poner solo las cosas que la gente realmente usará, es diferente, es un método de pensamiento diferente.

¿Y qué pasa aquí con nuestra privacidad? ¿Qué está haciendo LG para garantizar la seguridad de nuestros datos o de que no recibimos un ataque que termine controlando o secuestrando nuestros dispositivos?

Es una calle de doble sentido. En otras palabras, el consumidor debe ser diligente y las empresas deben implementar los sistemas de seguridad de forma regular, es decir, todo el paquete completo: seguridad y dispositivos conectados. No se trata de sólo una actualización, es algo constante, regular, es como saber cómo limpiar tu baño, debes hacerlo ya sea cada mes o cada semana para mantener sus capacidades y su intención original. Ambas partes deben hacerlo, el consumidor no puede esperar que la compañía lo haga todo.

Si el consumidor compra un Smart TV y no quiere compartir su información no debe comprar uno, porque si el televisor no sabe lo que está viendo, no podrá hacer predicciones. Esa sería mi advertencia para los consumidores, si no quieren o no confían en cierta función, compren un televisor regular, para qué comprar un costoso... bueno, no tan costoso... pero por qué pagar por algo que nunca van a usar, y luego, si lo hacen, por qué se quejan de que no quieren que su información se suba a la nube o lo que sea. Lo que quiero explicar es que tienen que entender qué parte del contrato, que aceptaron, están usando, y creo que esto es educación, como lo dije al principio. Se lo he comentado a nuestra gente, deberíamos poner algunas de estas advertencias en la caja: "si no quiere compartir su información no compre este televisor", creo que deberíamos ser muy claros desde el inicio y no esperar hasta que lo compren, miren el manual y deban presionar 'Si' para compartir su información, "¿están de acuerdo?" y se den cuenta que no quieren compartir su información.

"Si el consumidor compra un Smart TV y no quiere compartir su información no debe comprar uno".

Ante esto ¿crees que en el futuro tendremos sólo Smart TVs? A pesar de las dudas que tienen los consumidores.

Por supuesto, no podemos detenerlo. Podemos jugar este juego de forma ética o de manera poco ética, pero no podemos no jugar dentro de esta industria. Nosotros no lo controlamos, no somos quienes manejamos el tráfico, somos sólo seguidores, pero ustedes pueden ayudarnos a elegir la dirección correcta.

Ahora que LG se está asociando con más y más compañías, ¿cómo controlan la privacidad de la información que comparten con esas otras empresas, como Amazon Alexa o Google, a través de un televisor LG?

Buena pregunta. La respuesta corta: no compartimos los datos con ellos. No es que Google nos dé sus datos y nosotros les damos nuestros datos, es diferente, ambos están integrados pero viven y trabajan en diferentes niveles. En otras palabras, tengo un televisor LG ThinQ y si digo "¿qué tiempo hace?", esto va directamente a Google Assistant, pero si digo "cambia el canal", esto va a LG ThinQ, es decir, (la plataforma de un tercero) sólo estará disponible cuando necesite obtener cierta información, así que ahora mismo no hay necesidad de controlar a nuestros socios.

Sólo coexistimos, es como si estuvieras en una habitación y ella en otra, no es necesario que estén en la misma habitación, y entonces no tenemos que controlarte. Ahora mismo esto no nos preocupa, más adelante no lo sé, no sé lo que sucederá en el futuro, pero no creo que empresas como Amazon o Google vayan a abrir su base de datos, no es algo que estemos esperando, así que no creo que haya de qué preocuparse. Ellos no están hablando con nuestros clientes, y nosotros no estamos hablando con sus clientes, por lo que al final nadie está recopilando información.

Algunas compañías de seguridad advierten que el próximo ataque global se realizará a través de los dispositivos conectados con IA, ¿qué opinas de esto?

Creo que todo es posible. Pero una vez más, debes tener funciones redundantes para evitar esto antes de que se vuelva incontrolable. Aunque ¿cuánto daño puede hacer un hacker a un frigorífico con IA? No lo sé, pero seguro es diferente que a un reactor nuclear o un automóvil. Si fuera un fabricante de automóviles estaría más preocupado, ya que el daño que puedes hacer con un auto es mucho más de lo que puedes hacer con una lavadora. Si estamos ante una situación de vida o muerte, la lavadora no te puede matar, pero un auto sí podría. Así que no estamos tan preocupados por esto, pero sí, todos tienen que ser diligentes, tenemos que actualizar constantemente nuestro software de seguridad, tenemos que parchear constantemente bugs y agujeros, pero se debe hacer rápido y de forma regular. Tenemos un centro de actualización de software que fue creado para eso, son responsables de actualizaciones constantes en todos los productos ThinQ y tenemos que seguir invirtiendo en ello.

¿Crees que en un futuro sólo tendremos una plataforma global de IA o seguiremos viendo como cada compañía apuesta por la suya?

Voy utilizar la misma analogía que al inicio. Microsoft Office. Al inicio, cuando estaba en la universidad, hace tres años (risas), usaba tres procesadores de texto diferentes: Microsoft Word, WordPerfect y creo que WordStar. Era muy frustraste tener que trabajar en WordPerfect, guardar el documento y luego, cuando salías de la universidad, te dabas cuenta que no tenías WordPerfect en tu ordenador. Entonces, tenías que volver para guardarlo como archivo de texto... oh, Dios mío... En aquel entonces no teníamos un estándar, y posteriormente evolucionó a OCX. Creo que al final eso fue mucho más conveniente, a pesar de que es como un monopolio, sabes, a veces los monopolios no son malos per se, pero de nuevo, es un monopolio, no hay duda al respecto, creo que eso es lo que sucederá con la IA.

"(La IA) Evolucionará de forma natural, como si fuera un estándar o quizás dos".

Evolucionará de forma natural, como si fuera un estándar o quizás dos, sólo mira lo que está sucediendo ahora, quiero decir, durante muchos años sólo fue Amazon y ahora, de repente, mira quién llega por detrás... creo que es mejor para todos. Nadie tiene que controlarlo, ningún gobierno tiene porque participar, esto es sólo una opinión personal, no creo que el gobierno tenga que decir "oye, debemos mantener las cosas competitivas". Simplemente se dará de forma natural, los consumidores se irán al que mejor les funciona. ¿Saben cuántos estándares existen en smartphones? dos. Creo que dos es como un número mágico cuando se trata de sistemas operativos, y la IA es un sistema operativo. Al final del día creo que serán dos o tres, de forma natural y sin la intervención de nadie.

Creo que la gente estará en la que todos usen y luego dirá "quiero usar éste, ya no me gusta Facebook porque ahí está mi madre, ahora voy a usar Instagram". Creo que eso es lo que pasará, ¿qué pasó con Snapchat? ¿qué pasó con Pinterest? ¿qué le pasó a Friendster? Naturalmente la gente se va hacia uno, el más popular, y luego, siempre, habrá una alternativa, eso es lo que está sucediendo... excepto en los procesadores de textos, no sé, ¿cuál es la nueva opción o estándar dentro del procesamiento de textos? ¿Google Docs? No lo creo.

Creo que eso es lo que sucederá con la inteligencia artificial, siempre habrá uno o dos jugadores allí y siempre habrá muchos pequeños jugadores.

Mientras que Amazon Alexa y Google Assistant siguen ganando terreno, LG decidió apostar por añadir compatibilidad con ambos en lugar de sacar su propio asistente ¿por qué?

Debido a que ambos apuntan a funciones diferentes. Como lo mencioné antes con el "¿qué tiempo hace?", aquí Google Assistant es el mejor para eso, pero si lo que quieres es comprar, entonces Amazon es el mejor, con un "Alexa compra papel higiénico". Es decir, todo depende de las necesidades y en el caso de ThinQ no es lo mismo, no es un competidor para Google o Amazon. ThinQ es sobre el producto, y aquí ni Google ni Amazon fabrican los productos, bueno, sí son fabricantes, pero en el caso de sus altavoces, que al final es un producto sencillo, no es un televisor.

"ThinQ no es lo mismo, no es un competidor para Google o Amazon. ThinQ es sobre el producto".

Así que, una vez más, cuando se trata de electrodomésticos, aparatos electrónicos para el hogar y smartphones, nosotros tenemos más experiencia que cualquiera de esas dos compañías. Y aquí dependerá de lo que necesites, por ello decidimos agruparlo todo y es por eso que no quisimos elegir entre uno u otro, porque el consumidor no elige a veces uno y a veces otro mientras vive su vida, a veces necesita conocer el clima, algunas otras necesita comprar cosas, y a veces necesita controlar el televisor. Estamos siguiendo las necesidades del consumidor, ambas empresas son buenas para ciertas cosas pero no para todo.

Televisores 8K y OLED

Samsung presentó su primer televisor comercial MicroLED como alternativa al OLED, y los primeros detalles apuntan a una mejora importante frente al OLED ¿qué opinas de esto?

Genial. Creo que hay más opciones para los clientes. Sin embargo, ahora mismo la tecnología es buena para pantallas muy grandes, pero para el hogar no creo que MicroLED sea un sustituto viable de OLED. Estoy seguro de que será una buena opción, pero la industria de la televisión nunca se ha centrado en un solo tipo de tecnología, incluso cuando la mejor tecnología eran los paneles LCD existía la opción de Plasma. Nunca se trata sólo de una, creemos que es genial tener más tecnologías para elegir, pero cuando la gente dice que es un reemplazo, tiendo a pensar que es más un frase centrada en el marketing. Las cosas evolucionan en la tecnología, el caballo se convierte en carruaje y el carruaje se convierte en coche, y cosas de ese tipo. Sí, la tecnología evoluciona pero a menudo no reemplaza a la anterior por completo. Por ejemplo, el televisor no reemplazó a la radio.

¿En algún punto consideran enfocarse en OLED en lugar de LCD?

Sí. Esa es la dirección. Es decir, LG Display es todo OLED, y todo su dinero se está invirtiendo en OLED, aunque no somos de esos que tenemos televisores NanoCell y no OLED. Por ejemplo, también tenemos IPS en los monitores, y es que nos gusta dejar abierta la posibilidad a elegir. No sólo somos OLED y durante muchos, muchos, muchos años no creo que seamos sólo OLED, y es que a algunas personas les gusta, por ejemplo, el color, el contraste... me refiero a la diferencia entre IPS y OLED, y queremos que esté disponible para todos (el OLED). También tenemos MicroLED, es decir, no estamos rechazando nada, si es una panel, siempre lo consideraremos.

¿Quieres decir que están abiertos a fabricar otras tecnologías que no sean de ustedes?

Si existe la posibilidad de que ofrezca diferentes beneficios, sí, es probable que lo hagamos. Me refiero a LG Electronics.

Este año la mayoría de las compañías lanzaron su televisor 8K, pero todavía no hay contenido en dicha resolución y el 4K aún no ha llegado a todo el mundo, entonces ¿por qué debemos empezar a pensar en 8K?

Porque el periodista quiere información nueva para hablar de ello. Yo lo hago por ti, ¿sabes? Si hablamos de 4K durante 10 años, no serías feliz, entonces lo hacemos por ti. (risas)

¿En serio? ¿Esa es la razón?

En parte sí, los consumidores no van a comprar 8K este año. Y está bien, no nos importa, pero tú puedes escribir sobre eso. Al final es bueno, es educación antes de que el mercado de consumo despegue, y tienes que hablar sobre eso ¿verdad? Entonces, si no lo hiciéramos, estarías molesto y nosotros queremos hacer feliz al periodista.

Esa es una razón. La otra razón es que en la historia de los televisores nunca ha habido un televisor que se haya lanzado después de que el contenido estuviese disponible. Esto es normal, el hardware aparece antes que el contenido, por lo tanto, para aquellos que dicen que los contenidos no están disponibles y nos preguntan ¿por qué estás vendiendo eso? Yo habría preguntado lo mismo, ¿por qué vendes televisores a color cuando no hay contenido a color? ¿Por qué estás vendiendo 4K cuando no hay 4K? ¿Por qué estás vendiendo UHD cuando no hay UHD?... así es la historia de la televisión.

Lo hacemos porque posteriormente llegará el contenido, si no lo hacemos, el contenido no llegará al consumidor. Tal vez la gente tenga poca memoria, no lo sé, pero esa es la forma en la que funciona la industria de la televisión, si no lo hacemos, si no lanzamos el televisor, ninguno de los productores de contenido considerará crearlo. Por lo tanto, tenemos que venderlo antes de que llegue el contenido. Por eso, en este momento el 8K sólo se trata de escalado, como no hay contenido entonces tomamos las imágenes 4K y las escalamos a 8K, no es perfecto pero bueno, es mejor que 4K, ¿cierto? Todo se basa en algoritmos, no es contenido original de los creadores de contenido, y ese es el período de transición.

¿Y cuál es tu predicción para el 8K? ¿Cuándo crees que se dispare la adopción de esta tecnología?

Para comenzar realmente a hacer mella en nuestros ingresos, entre tres y cinco años. Quiero decir, en caso de que sea rápido. Yo, por ejemplo, no tengo un televisor 4K y no voy a comprar un 8K.

Cuando estaba en la universidad, otra vez, escuchaba cintas de cassette, mientras uno de mis amigos compró un reproductor de CDs. En mi caso, nunca compré un reproductor de CDs, me fui directamente del cassette a las descargas, omití una generación completa de CDs, ¿lo puedes creer? Así que estoy dispuesto a esperar. Voy a usar tecnología antigua hasta que haya una tecnología mejor. No me gustaron los CDs, ¿sabes por qué? Porque mi amigo los tenía en su coche y cada vez que pasábamos un bache saltaba, esa es una tecnología estúpida, mi cassette no saltaba, así que dije, no voy a comprar un CD y me fui directamente al MP3 ¿No es gracioso? Si no me gusta la tecnología no la adoptaré, nunca he comprado Blu-ray, pasé del DVD directamente al streaming.

Viví en China cuando la industria de los smartphones despegó. Lo curioso de China es el caso de las líneas de teléfono fijas, es decir, no muchos chinos tenían teléfono fijo, lo que hizo que se fueran directamente de los teléfonos de pago a los teléfonos móviles. Por eso es que la aceptación fue tan rápida allí, porque no hubo tecnología de transición, fueron directamente a los móviles, y de repente cientos de millones de personas tenían dispositivos móviles, no hubo transición.

Apple y su "apertura"

Este año, Apple anunció la alianza con varios fabricantes para abrir AirPlay 2 y en algunos casos iTunes...

Bien por ellos, me alegro de que no estén tratando de controlar todo. Es difícil controlar todo, tienes que tener alianzas en algún momento.

¿Sabes cómo fue el proceso, en el caso de LG con Apple, sabes algo de cómo fueron las negociaciones?

No, no estoy en esa parte del negocio, en el de las negociaciones con socios, pero estamos felices de trabajar con otras compañías, cualquier compañía. Apple generalmente ha hecho todo por su cuenta sin alianzas, pero creo que hay un límite en cuanto a lo que puedes hacer por tu cuenta. Si intentas convertirte en una compañías de contenidos siendo una compañía de hardware, creo que las compañías de contenidos deben tener socios, incluso si sólo quieres hacer llegar el contenido de iTunes a más personas. Entonces sí, creo que tiene sentido tener socios. Nosotros no somos una compañía de contenidos, sólo somos el OEM que hace las cosas, somos un fabricante, y estamos orgullosos de serlo. Nunca seremos una compañía creadora de contenidos.

"Apple generalmente ha hecho todo por su cuenta sin alianzas, pero creo que hay un límite en cuanto a lo que puedes hacer por tu cuenta".

Y es bueno... ¿es bueno tener a Apple en tus productos?

Sí, porque esa audiencia es difícil de conseguir por otros medios, y es que los fans de Apple, los consumidores de Apple, son muy leales, por lo que creo que es bueno aprovechar eso. Y tal vez no sea tan grande comparada con la audiencia de Windows o Android, pero sigue siendo muy grande. Y definitivamente, como LG no es creadora de contenido, sólo somos un fabricante, no tenemos ningún conflicto, no tenemos conflictos de trabajar con ellos porque no son nuestros competidores, y nosotros no estamos compitiendo con ellos por el contenido. Entonces sí, para nosotros tiene mucho sentido y para ellos también, porque LG es uno de los principales fabricantes de productos. Estamos fabricando más televisores que nunca y hacemos muchas más cosas, tal vez no teléfonos, ellos venden más teléfonos que nosotros, pero en otros productos somos bastante grandes a nivel mundial.

El televisor enrollable

Respecto al nuevo LG Signature OLED TV R, su primer televisor comercial que se puede enrollar, ¿cuáles son los argumentos que usarán para decir que este tipo de pantallas son mejores, o el futuro de los televisores? ¿Esperan vender millones?

No, no venderemos millones, pero la idea es mostrar que es sólo OLED. Quiero decir, hemos estado diciendo que el OLED es mejor durante varios años, que OLED es mejor porque es la próxima generación, quiero decir, es la siguiente generación. Aquí combinamos lo mejor del LCD y lo hacemos más fácil y menos complicado, ¡la simplicidad es el futuro!

"No te diremos que debes comprar el OLED R (enrollable) para obtener la mejor experiencia OLED, eso no es verdad".

Creo que en diseño y fabricación, todo se dirige naturalmente hacia la simplicidad, y OLED es lo más simple que puedes tener, es una hoja, vamos, hay otras capas, pero una vez más, es que toda la tecnología está encerrada en un panel y eso es increíble, se siente "normal". Todos quieren simplificar las cosas, la naturaleza quiere hacer las cosas más simples, así que, otra vez, OLED. Nosotros hemos estado diciendo que el OLED es naturalmente la próxima generación durante muchos años, y es mejor, por lo que este nuevo televisor es solo una variación del OLED, no es una tecnología nueva, la pantalla, el panel, todo es el mismo OLED que hemos estado usando durante años. Es decir, se vuelven mejores con más altas resoluciones, pero la tecnología sigue siendo la misma.

Y si no quieres desenrollar tu televisor puedes comprar un Serie E o Serie B, la imagen será igual de buena, no te diremos que debes comprar el OLED R para obtener la mejor experiencia OLED, eso no es verdad. Si quieres un televisor que se enrolla para no tener que verlo en la pared cuando está apagado, ¿quieres ocultarlo? Perfecto. No se trata de la calidad de la imagen, se trata de estética, diseño y calidad superior, si quieres lucir de primera, si quieres presumirle a tus amigos, esto es mucho más impresionante que la Serie B, la Serie C o la Serie E.

¿Y para el siguiente año qué llegará, habrá más opciones de este modelo, o será una categoría de producto muy limitada?

No lo sé, pero la tecnología OLED, con esa resolución de gran calidad, con negros muy, muy, muy profundos, y colores muy, muy, muy brillantes en el mismo lugar, ahora mismo estamos jugando con ella. Ahora podemos jugar con el diseño porque OLED es muy flexible y muy fácil de manipular, podemos hacer locuras con él. No puedes hacer eso con LCD, LCD es esto o es esto (con la manos hace la forma de la curvatura de algunas pantallas LCD). Tengo un monitor LCD curvado de los actuales, y eso es todo lo que puede hacer, se le aplica mucha fuerza y estrés al LCD cuando lo curvas, y funciona, pero no puedes hacer esto o aquello (con las manos hace como si estuviese enrollando algo). Así que, nuevamente, utilizamos los beneficios de OLED para mostrar a las personas lo que puede hacer. ¿Vamos a vender millones de OLED R? No, sólo queremos mostrar que se trata de un dispositivo premium, no es para todos, al igual que una cama para mí no es para todos. Queremos que todos vean de lo que es capaz.

"¿Vamos a vender millones de OLED R? No, sólo queremos mostrar que se trata de un dispositivo premium que no es para todos".

¿Cuántos años crees que le quedan al OLED como producto exclusivo?

No sé, ¿cuántos años duró el LCD? Es decir, seguirá por 30, 40, 50 años... no lo sé, pero sí sé que es como mencionaba, habrá otras tecnologías y coexistirán, algunas desaparecerán porque la fabricación es demasiado costosa o demasiado difícil, o tal vez encuentren que contiene algún producto químico o material que sea dañino para el medio ambiente, no lo sé, pero siempre habrá competencia. ¿Cuál sobrevivirá 20 o 30 años? creemos que el OLED, estamos apostando, estamos invirtiendo miles de millones de dólares en el OLED mientras otras compañías están probando esto y aquello, y cada año tienen alguna nueva tecnología que se presenta como "esta es la tecnología que reemplazará al OLED" o "este es el nuevo OLED". Otros lo hacen, nosotros no. Acabamos de demostrar las capacidades del OLED y está rindiendo frutos, nuestra rentabilidad está aumentando cada año porque elegimos y nos quedamos en ello y seguimos invirtiendo, otros prueban este modelo y aquel modelo y... para qué jugarle al azar tratando de encontrar las tecnologías adecuadas si al final creemos el OLED es nuestra apuesta definitiva.

¿Cuál es tu predicción en los próximos cinco o diez años para el mercado de la televisión?

OLED. Nadie tienen a día de hoy la capacidad de invertir la cantidad de dinero que invertimos en otras tecnologías tan rápidamente, e incluso si hoy invirtieran miles de millones de dólares, tendrán que pasar muchos años antes de que veamos los frutos de esa inversión. En cinco años aún será el OLED, porque en este momento en la competencia no hay nadie que gaste miles de millones de dólares en construir nueva tecnología y nadie tienen la capacidad de fabricación de esa supuesta nueva tecnología. Bueno, tal vez lo estén haciendo en secreto, no sé, pero basado en lo que sé y lo que veo en la industria, será OLED.

LG OLED 8K

¿Y cuándo crees que se venderán más teles OLED que LCD?

No estoy diciendo que con nuestro trabajo en OLED venderemos más que el LCD, no. Si observas los ritmos de crecimiento, algunos son planos, pero creo que el OLED seguirá creciendo a un ritmo más veloz. No sé si en cinco años venderemos algo más que LCD, no lo sé y no lo creo, pero habrá que estar atentos al crecimiento.

Teléfonos flexibles y plegables

Samsung ya ha dicho que lanzará un móvil con una pantalla flexible este año...

Ya hay una empresa china en este momento ¿no?

Sí, el FlexPai y ¿qué pasa con LG, están desarrollando un smartphones plegable?

¿Por qué haríamos algo así? ¿Quién va a querer eso? No lo sé. No conozco a nadie que nos haya pedido que hagamos eso, las únicas personas que hablan de ello son los periodistas, y ellos no lo van a comprar, se los van a dar gratis. No creemos que haya un mercado para eso, sería un dispositivo muy grande. Ahora, si lo hacemos, como el caso del OLED R, sería sólo para mostrar a las personas las capacidades de esa tecnología, pero ¿sería un buque insignia? No lo creo. Nadie está pidiendo esto, no lo entiendo, personalmente no entiendo por qué hay tanta obsesión por teléfonos que se doblan. Cuando hablo con personas, como mi familia y amigos, es algo como: "no, no creo que lo necesite", ellos están contentos con el diseño de sus teléfonos actuales, no creen que necesiten un teléfono que se desdoble en una tablet, ello no quieren una tablet en sus teléfonos.

¿Y, por ejemplo, qué piensas de una tablet enrollable, como tu OLED R?

Una vez más, estamos hablando de un producto muy premium, no es para un mercado masivo como el de los smartphones. Los smartphones generalmente son para un mercado masivo ¿verdad? Había productos muy premium como Vertu, pero ya viste que nadie quería comprar eso... el punto es que los smartphones son productos masivos. Ahora, intenta hacer un smartphone premium... ¡buena suerte! En televisores, sí, puedes hacer televisores premium, hay un mercado para eso, hay personas que están gastando miles de dólares en crear su centro de entretenimiento doméstico perfecto. Hay gente que está gastando entre cinco y seis cifras para crear su sala de proyección de películas perfecta. No hay gente que esté gastando miles de dólares en un ecosistema de smartphones, nadie está construyendo un home theater alrededor de su teléfono.

"Sí, estamos ante un problema, ahora mismo no hay mercado para un smartphone de 1.500 o 2.000 dólares".

Se trata de diferentes segmentos. Creo que si vas a hacer algo como un smartphone plegable, primero debes preguntarte ¿por qué?. Nosotros lo podemos hacer porque ya demostramos que el OLED se puede plegar, podemos hacerlo, pero ahora queda la pregunta, ¿por qué hacerlo? ¿Por qué deberíamos hacerlo? ¿Hay gente que va a comprar esto? Si hoy día los consumidores ya se quejan de los smartphones de 1.000 dólares... este teléfono plegable costaría mucho más de 1.000 dólares. ¿Crees que las personas que se quejan de que los teléfonos son demasiado caros van a ignorar el hecho de que el teléfono plegable será mucho más caro? Sí, estamos ante un problema, ahora mismo no hay mercado para un smartphone de 1.500 o 2.000 dólares.

Ahora, los periodistas siguen pidiéndolo pero no entiendo por qué, nadie lo comprará, ellos tendrán el suyo gratis, pero si tuvieran que pagar su propio dinero estoy seguro que no lo comprarían, ¿estoy en lo cierto?

Los CAPTCHAs se han vuelto demasiado complejos... para nosotros, que no para las máquinas

$
0
0

Los CAPTCHAs se han vuelto demasiado complejos... para nosotros, que no para las máquinas

Seguro que alguna vez has tenido que enfrentarte a un CAPTCHA, esas pequeñas pruebas que algunas páginas web no exigen superar para acceder a determinados contenidos.

Fundamental y paradójicamente, consiste en un test de Turing inverso: una máquina intenta determinar si verdaderamente eres un humano.

16 años jugando al gato y al ratón con los spambots

Este sistema para evitar el tráfico bot fue creado en 1997 por ingenieros de Altavista, aunque no se lo pondría este nombre hasta 6 años más tarde, y ofrecía poco más que fragmentos de fotografías mostrando alguna clase de texto que teníamos que transcribir. Una tarea fácil.

Una década más tarde, el sistema estaba en manos de Google y la compañía descubría que una computadora podía presentar un rendimiento mucho mejor que muchos humanos (99,8% vs 33%).

Y eso, pese a que los textos de los CAPTCHAs cada vez estaban más distorsionados (casi hasta lo indescifrable). Pero sus desarrolladores eran conscientes de que ésta es una carrera en la que la IA siempre nos va a alcanzar, y que lo que mejor funciona es cambiar cada cierto tiempo de enfoque.

Eso fue lo que hizo Google cuando adoptó la tecnología No Captcha ReCaptcha, que ahora pasaba a decidir tu naturaleza en base a un análisis de las acciones previas del usuario en la página web. Pero esos eran los buenos viejos tiempos: ahora, de nuevo, superar un CAPTCHA se ha convertido en una tarea tan tediosa como merecedora de convalidar alguna titulación.

Yo, personalmente, estoy ya un poco harto de seleccionar fotos (poco claras) de autobuses, escaparates, semáforos, pasos de cebra y bocas de riego; y estoy deseando que Google vuelva a dejar atrás a los spambots apostando por alguna nueva tecnología.

Sin alternativas a medio plazo

El problema es que, como explica a The Verge Jason Polakis, profesor de computación en Chicago, "necesitamos alguna alternativa, pero aún no hay un plan concreto".

Y mientras tanto, la trampa en la que deberían caer las IAs no está logrando más que dificultar la navegación de usuarios humanos. Se han ido probando y debatiendo alternativas basadas en rimas infantiles, en el trivial o en la clasificación de rostros por expresión facial, género y origen étnico; todo ello sin demasiado éxito.

También se ha puesto recientemente sobre la mesa la opción de crear CAPTCHAs similares a juegos de puzzles, consistentes en rotar formas geométricas o mover piezas por un tablero.

El primer problema es que cuando hacemos estas pruebas lo bastante complejas como para convertirse en un reto para la IA, empiezan a aparecer grupos de usuarios que sienten que también son demasiado complejas para ellos. Y no es porque seamos poco listos, sino porque estas alternativas al CAPTCHA se basan en elementos culturales, lingüísticos o vinculados a la experiencia. Elementos que no todos los humanos compartimos.

El segundo problema es que aquellas capacidades que sí compartimos sin duda alguna (y que no requieren de entrenamiento previo) son precisamente en las que destacan los bots (como el procesamiento de imágenes).

via GIPHY

Como explica Polakis:

"Necesitamos algún tipo de desafío que [esté] al margen de las complejidades y diferencias culturales. Algo que sea fácil para un humano promedio, desvinculado de cualquier subgrupo específico de personas y que al mismo tiempo sea difícil para las máquinas. Eso limita mucho aquello que realmente puedes hacer".

Así las cosas, parece que sólo cabe la opción de retomar algo más cercano al enfoque original de reCAPTCHA y apostar por la búsqueda de indicios de automatización en el comportamiento del usuario (por ejemplo, que interactúe con una web sin mover el ratón, o moviéndolo siempre igual). Teóricamente, ésa es la intención de la tercera generación de reCAPTCHA, cuya API fue presentada a finales del año pasado.

Aaron Malenfant, el jefe de ingeniería del equipo CAPTCHA de Google, afirma que el ritmo de evolución de las técnicas de machine learning provocarán que, dentro de 5-10 años, los desafíos de CAPTCHA dejen de ser viables. Confía, no obstante, en que para entonces la WWW cuente con tests de Turing "ejecutándose constantemente en segundo plano".

Vía | The Verge

Huawei recurre a la inteligencia artificial de su Mate 20 Pro para acabar la 'Sinfonía Inacabada' de Schubert

$
0
0

Huawei recurre a la inteligencia artificial de su Mate 20 Pro para acabar la 'Sinfonía Inacabada' de Schubert

La 'Sinfonía inacabada' (oficialmente 'Sinfonía Nº8 en Si menor, D. 759') es una de las obras más populares del compositor vienés Franz Schubert, y debe su nombre oficioso al hecho de constar sólo de dos movimientos completos (y el comienzo del tercero) de los tres o cuatro de los que suelen contar las sinfonías.

A lo largo de los años se han generado múltiples teorías sobre la razón de dicha incompletitud: unos especulan con que Schubert sí hubiera compuesto los dos movimientos restantes, pero un amigo hubiera perdido las partituras; otros con que sencillamente abandonase la composición, deprimido por el diagnóstico de una enfermedad; incluso hay quien afirma que otra de sus obras ('Entreacto en si menor de la música de escena para Rosamunda', compuesto un año más tarde) sería el movimiento sinfónico restante.

En cualquier caso, Schubert aún vivió seis años después de dejar a medias la partitura de la 'Sinfonía Inacabada', por lo que no es descartable que quisiera que pasara así a la historia. Pero, claro, han pasado 191 años desde su muerte, y hace tiempo que su obra ha pasado a dominio público: cualquiera es libre ahora de interpretarla, comercializarla, modificarla y... sí, completarla.

Un compositor en el bolsillo

Pero, ¿quién podría atreverse a completar una famosa obra de un genio de la música clásica? Parece una responsabilidad demasiado grande para cualquier persona. Y así es: por eso tan temeraria empresa ha sido realizada por la misma tecnología de procesamiento neuronal que dota de capacidades de IA al Huawei Mate 20 Pro.

Y es que Huawei presentó ayer, durante una audición privada llevada a cabo en el Cadogan Hall de Londres, la versión acabada de la 'Sinfonía inacabada' por obra y gracia de un algoritmo, que se basó en el timbre, compás y tono de los dos movimientos de la obra para elaborar otros dos complementarios.

Tras ello, la compañía china unió fuerzas con el compositor Lucas Cantor (autor de la BSO de 'Spirit, el corcel indomable') para fijar una partitura. El mismo Cantor explica su papel:

"Mi función fue la de extraer las buenas ideas de la IA y llenar los vacíos para asegurarnos de que la producción final estuviera lista para ser interpretada por una orquesta sinfónica. El resultado de esta colaboración con la IA demuestra las increíbles posibilidades y el significativo impacto que la tecnología puede tener en la cultura moderna".

¿Herejía o avance tecnológico?

Curiosamente, hace ya dos años alguien realizaba la siguiente pregunta en Quora: "¿Debería la inteligencia artificial completar la Sinfonía Inacabada de Schubert?", y la respuesta más valorada empezaba poniendo el énfasis en la palabra 'debería': "Eso sugiere una cuestión moral o ética".

"Ya tenemos música con elementos mecanizados. [Y] nada impide que los humanos intenten completar la sinfonía. [...] En lo que al público respecta, cada obra triunfará o no en virtud de la reacción del público y de los críticos. [...] No puedo ver una razón por la cual la inteligencia artificial no debería utilizarse para 'terminar' la sinfonía".

Pero Gustavo Gimeno, director de orquesta de la Filarmónica de Luxemburgo, explica en El País su desacuerdo con ese planteamiento:

"Me parece un sinsentido... la composición me resulta maravillosa tal y como es, igual que la Novena sinfonía de Bruckner, incompleta así mismo por otras razones.[...] ¿Quiénes somos nosotros para completar un trabajo de, en este caso, uno de los músicos más sensibles, refinados y originales de la historia?".

Pero el debate, claro, va más allá de una obra concreta de un autor concreto, y tiene que ver con los límites (o la utilidad) del uso de la IA en el ámbito musical.

Clarence Mak, decano asociado de la Escuela de Música de la Academia de Artes Escénicas de Hong Kong, explica en South China Morning Post que sus estudiantes ya reciben formación en composición algorítmica, y que

"nos guste o no, aprender a componer usando una computadora es un deber y no tendrá ningún impacto en la generación más joven de artistas".

Google apuesta por el reconocimiento de voz para ayudar a que las personas sordas tengan más fácil interactuar en eventos sociales

$
0
0

Google apuesta por el reconocimiento de voz para ayudar a que las personas sordas tengan más fácil interactuar en eventos sociales

La tecnología de reconocimiento automático de voz (ASR) es una herramienta fundamental para los 466 millones de personas sordas o con problemas de audición que hay en el mundo (según datos de la Organización Mundial de la Salud).

Actualmente, muchas personas sordas no pueden participar en eventos como congresos, debates, juicios o asambleas sin ayuda de la labor de un estenotipista, que transcribe lo que los asistentes van diciendo en tiempo real.

Pero eso supone atar la capacidad de los sordos para participar en la esfera pública a la disponibilidad de unos servicios profesionales no siempre baratos ni sencillos de contratar.

Live Transcribe y Sound Amplifier

Motivados por este reto, Google anunció ayer dos nuevas apps destinadas a usuarios de Android con problemas auditivos, ya disponibles para dispositivos Pixel 3 (se instalarán automáticamente en todos ellos a partir de la próxima actualización) y en todos aquellos equipados con Android 9 Pie.

Se podrá hacer uso de ambas desde el menú de compatibilidad de cualquier terminal Android compatible:

  • La primera, Live Transcribe, transcribe voz a texto en tiempo real y para diferentes idiomas (70, en total, lo que da cobertura a más del 80% de la población mundial). A efectos prácticos, la app permite dotar de subtítulos automáticos (no tan diferentes a los que podemos ver en Youtube mientras visualizamos un vídeo en otro idioma) a la conversación que tiene lugar en torno a nosotros.

  • La segunda, Sound Amplifier, funciona con auriculares y permite que el audio sea más claro y más fácil de escuchar. Tras haberse en el Google I/O hace ya un año, ya está disponible en Google Play esta app diseñada para filtrar el ruido de fondo sin necesidad de hacer más fuertes el resto de sonido.

¿Qué ha cambiado?

Los antiguos sistemas de transcripción basados ​​en reconocimiento automático de voz consumían gran cantidad de datos y, sobre todo, capacidad de cómputo, lo que los inhabilitaba como herramienta de uso en tiempo real.

Para dar respuesta a estos problemas y garantizar, además, una precisión razonable, Live Transcribe ha apostado por dejar la labor de reconocimiento del habla en la nube (aunque tienen como objetivo que sea posible hacerlo dentro del dispositivo en un futuro); mientras que las conexiones con dicha nube quedan en manos de una red neuronal integrada en el software que sólo se conecta cuando detecta que se está hablando.

"Para hacer que Live Transcribe sea lo más intuitivo posible", explica Sagar Savla, Product Manager de Alphabet Research, dedicaron tiempo a investigar la experiencia de usuario:

"nos asociamos con la Universidad de Gallaudet [y] analizamos varias modalidades diferentes: ordenadores, tabletas, teléfonos inteligentes e incluso pequeños proyectores, probando varias formas de mostrar información auditiva y subtítulos. Al final, decidimos centrarnos en los smartphones debido a la absoluta omnipresencia de estos dispositivos y a su creciente capacidad".

El siguiente paso fue mostrar de manera simple y práctica para el usuario el nivel de confianza de las distintas partes de la transcripción, tal como se puede ver en la siguiente imagen (usando color que van del amarillo -muy confiable- a azul -poco-).

via GIPHY

También Sound Amplifier requirió de investigación sobre experiencia del usuario. En la siguiente imagen se puede ver cómo proporciona al usuario información visual sobre nivel de ruido (círculo interior) y volumen de recepción de la voz (círculo exterior).

Esto les permite ajustar la ubicación del teléfono y hacer factible que una persona con problemas de audición pueda seguir una conversación en un espacio lleno de gente hablando:

via GIPHY

Un estudio indica que los coches autónomos empeorarán el tráfico urbano cuando prefieran seguir circulando que pagar el parking

$
0
0

Un estudio indica que los coches autónomos empeorarán el tráfico urbano cuando prefieran seguir circulando que pagar el parking

El tráfico es causa habitual de exasperación para muchos habitantes de las grandes (y no tan grandes) ciudades, y protagonista de frecuentes debates políticos.

Podríamos pensar, quizá, que con todos los cambios que se atisban a en el campo de la movilidad gracias a la irrupción de la conducción autónoma, preocupaciones como los atascos pasarán a tener fecha de caducidad.

Pero nada más lejos de la realidad, si hemos de guiarnos por las conclusiones del estudio llevado a cabo por Adam Millard-Ball, profesor asociado de estudios ambientales de la Universidad de California.

Si creemos que lo del tráfico es un problema, esperemos a ver qué ocurre cuando los coches puedan seguir circulando solos** a la espera de que quede algún espacio gratuito para aparcar**.

Asumimos que los coches autónomos tan sólo representan mayor comodidad para el conductor, y que todo lo demás seguirá igual, pero lo que Millard-Ball nos recuerda es que nos enfrentamos a un problema de incentivos perversos.

Y es que los coches vacíos se acumularán en las calzadas, dando vueltas por los alrededores de manera indefinida, porque eso resultará mucho más rentable que pagar por el estacionamiento. Peor todavía: dado que circular resulta más barato cuanto menor sea la velocidad, los coches autónomos "tendrán todos los incentivos para crear el caos":

“Cuando se toma en cuenta la electricidad, la depreciación, el desgaste y el mantenimiento, circular cuesta unos 50 centavos por hora, lo que resulta más barato que permanecer aparcado, incluso en una ciudad pequeña".

La combinación de modelos de simulación de tráfico y teoría de juegos usada en este estudio predice que tan sólo 2000 coches autónomos provocarían un descenso generalizado de la velocidad del tráfico de 3,2 km/h de media en una ciudad como San Francisco, alargando notablemente la duración de los trayectos. Y eso, en "el mejor de los casos".

La solución que propone Millard-Ball es el cobro de un impuesto pigouviano, que corrija la externalidad negativa (la congestión del tráfico provocada por la presencia de los coches) internalizándola. Es decir, haciendo asumir a los propietarios de estos coches el coste que generan.

Esto se haría a través de 'tarifas de congestión' como las que ya están vigentes en varias grandes ciudades de todo el mundo, donde los automovilistas pagan una tarifa fija para poder acceder al centro de la ciudad.

Para el investigador es importante que se apueste por penalizar el uso del espacio público, al margen de si el vehículo está o no en movimiento, porque si los políticos prefieren a optar por lo menos polémico (rebajar los costes de conducción rebajando -subsidiando- el precio del estacionamiento) no harán sino "agravar la congestión", aunque parezca contraintuitivo.

Vía | Technology Review

Viewing all 3104 articles
Browse latest View live