Ir al contenido principal

Inteligencia Artificial

La inteligencia artificial va a cambiar completamente tu vida

Logo
Tapia, un robot de conserjería a través del cual los huéspedes del hotel pueden controlar los equipos en la habitación, como televisión, aire acondicionado o iluminación por comunicación de voz o tocar el robot, se ve durante una vista previa de prensa del recién inaugurado Henn na Hotel Maihama Tokyo Bay en Urayasu, al este de Tokio, Japón, 15 de marzo de 2017. El segundo hotel japonés ejecutado por robot Henn na Hotel ("hotel extraño" en japonés) abrió el 15 de marzo de 2017 como el hotel equipado con robots cerca de Tokio, dijo HIS Co. .  REUTERS / Issei Kato

Nuestras vidas se podrían transformar en 100 años debido a la IA, así como la electricidad ha cambiado la forma en que vivimos hoy.

Así como la electricidad transformó el funcionamiento de las industrias en el siglo pasado, la inteligencia artificial -la ciencia de programar las habilidades cognitivas en máquinas- tiene el poder de cambiar sustancialmente la sociedad en los próximos 100 años. AI está siendo aprovechada para permitir cosas como robots domésticos, robo-taxis y chatbots de salud mental para hacerte sentir mejor. Una startup está desarrollando robots con inteligencia artificial que los acerca a la inteligencia humana. Ya, AI se ha estado incrustando en la vida cotidiana, como el poder de los cerebros de los asistentes digitales Siri y Alexa.Permite a los consumidores comprar y buscar en línea de forma más precisa y eficiente, entre otras tareas que las personas dan por hecho.
"AI es la nueva electricidad", dijo Andrew Ng, cofundador de Coursera y profesor adjunto de Stanford que fundó el proyecto Google Brain Deep Learning, en un discurso en la conferencia AI Frontiers que se celebró este fin de semana pasado en Silicon Valley. "Hace aproximadamente 100 años, la electricidad transformó todas las industrias importantes. AI ha avanzado hasta el punto en que tiene el poder de transformar "todos los sectores principales en los próximos años". Y a pesar de que existe la percepción de que la IA era un desarrollo bastante nuevo, en realidad ha existido durante décadas, dijo. Pero está despegando ahora debido a la capacidad de escalar datos y computación.
Ng dijo que la mayor parte del valor creado a través de la IA hoy ha sido a través del aprendizaje supervisado, en el cual una entrada de X lleva a Y. Pero ha habido dos grandes olas de progreso: una onda aprovecha el aprendizaje profundo para permitir cosas tales como predecir si un consumidor hará clic en un anuncio en línea después de que el algoritmo obtenga información sobre él. La segunda ola llegó cuando la salida ya no tiene que ser un número o entero, sino cosas como el reconocimiento de voz, una estructura de oraciones en otro idioma o audio.Por ejemplo, en autos que conducen por sí mismos, la entrada de una imagen puede conducir a una salida de las posiciones de otros autos en la carretera.
De hecho, el aprendizaje profundo -donde una computadora aprende de conjuntos de datos para realizar funciones, en lugar de solo ejecutar tareas específicas para las que fue programado- fue instrumental para lograr la paridad humana en el reconocimiento de voz, dijo Xuedong Huang, quien dirigió el equipo de Microsoft en el histórico logro en 2016 cuando su sistema reservó una tasa de error del 5.9%, lo mismo que un transcriptor humano. "Gracias al aprendizaje profundo, pudimos alcanzar la paridad humana después de 20 años", dijo en la conferencia. Desde entonces, el equipo ha reducido la tasa de error aún más, hasta el 5,1%.
El auge de los asistentes digitales
A partir de 2010, la calidad del reconocimiento de voz comenzó a mejorar para la industria, lo que finalmente condujo a la creación de Siri y Alexa. "Ahora, casi lo das por sentado", dijo Ng. Eso no es todo; se espera que el habla sustituya a la mecanografía por entrada, dijo Ruhi Sarikaya, director de Amazon Alexa. La clave para una mayor precisión es comprender el contexto. Por ejemplo, si una persona le pregunta a Alexa qué debe hacer para cenar, el asistente digital tiene que evaluar su intención. ¿Le está pidiendo a Alexa que haga una reserva de restaurante, pida comida o encuentre una receta? Si le pide a Alexa que encuentre "Hunger Games", ¿quiere la música, el video o el audiolibro?
Y lo que sigue para el asistente digital es una tarea aún más avanzada: comprender el "significado más allá de las palabras", dijo Dilek Hakkani-Tur, investigador científico de Google. Por ejemplo, si el usuario usa las palabras "más tarde hoy", podría significar de 7 pm a 9 pm para la cena o de 3 a 5 pm para las reuniones. Este próximo nivel también requiere conversaciones más complejas y animadas, tareas e interacciones multidominio más allá de los límites del dominio, dijo. Además, dijo Hakkani-Tur, los asistentes digitales deberían ser capaces de hacer cosas tales como leer fácilmente y resumir correos electrónicos.
Después del discurso, la "visión por computadora" -o la capacidad de las computadoras para reconocer imágenes y categorizarlas- fue la siguiente en saltar, dijeron los oradores. Con muchas personas subiendo imágenes y videos, se volvió engorroso agregar metadatos a todo el contenido como una forma de categorizarlos. Facebook creó una IA para comprender y categorizar videos a escala llamada Lumos, dijo Manohar Paluri, un investigador líder de la compañía.Facebook utiliza Lumos para recopilar datos de, por ejemplo, imágenes y videos de fuegos artificiales. La plataforma también puede usar las poses de las personas para identificar un video, como categorizar a las personas que descansan en los sofás como pasando el rato.
Lo que es crítico es determinar el contenido semántico principal del video cargado, agregó Rahul Sukthankar, jefe de comprensión de videos en Google. Y para ayudar a la computadora a identificar correctamente lo que está en el video, por ejemplo, si los profesionales o los aficionados están bailando, su equipo explora YouTube para contenido similar del que AI puede aprender, como tener una cierta velocidad de fotogramas para contenido no profesional. Sukthankar agrega que una dirección prometedora para futuras investigaciones es hacer entrenamiento en computación usando videos. Entonces, si a un robot se le muestra un video de una persona que vierte cereal en un bol en múltiples ángulos, debe aprender observando.
En Alibaba, AI se usa para aumentar las ventas. Por ejemplo, los compradores de su sitio de comercio electrónico de Taobao pueden cargar una imagen de un producto que les gustaría comprar, como un bolso de moda lucido por un extraño en la calle, y el sitio web vendrá con bolsos de mano que se acerquen más a la foto. Alibaba también usa la realidad aumentada / realidad virtual para que la gente vea y compre en tiendas como Costco. En su sitio de videos Youku, que es similar a YouTube, Alibaba está trabajando en una forma de insertar objetos 3D virtuales en los videos subidos de las personas, como una forma de aumentar los ingresos. Eso se debe a que muchos sitios de videos luchan con la rentabilidad. "YouTube aún pierde dinero", dijo Xiaofeng Ren, científico jefe de Alibaba.
Imagen: BCG
Rosie y el robot doméstico
Pero con todos los avances en IA, aún no es rival para el cerebro humano.Vicarious es una startup que busca cerrar la brecha desarrollando inteligencia a nivel humano en robots. El cofundador Dileep George dijo que los componentes están ahí para robots más inteligentes. "Tenemos motores, sensores, baterías, plásticos y procesadores baratos ... ¿por qué no tenemos a Rosie?". Se estaba refiriendo a la criada robot multipropósito en los dibujos animados de la era espacial de los años 60 The Jetsons. George dijo que el nivel actual de IA es como lo que él llama el "viejo cerebro", similar a la capacidad cognitiva de las ratas. El "nuevo cerebro" está más desarrollado, como lo que se ve en primates y ballenas.
George dijo que la inteligencia artificial del "viejo cerebro" se confunde cuando se cambian pequeñas entradas. Por ejemplo, un robot que puede jugar un videojuego falla cuando los colores se hacen un 2% más brillantes. "AI hoy no está listo", dijo. Vicarious utiliza el aprendizaje profundo para acercar al robot a la capacidad cognitiva humana. En la misma prueba, un robot con IA de Vicarious siguió jugando aunque el brillo había cambiado. Otra cosa que confunde la IA del "viejo cerebro" es unir dos objetos. La gente puede ver dos cosas superpuestas entre sí, como una taza de café que oscurece parcialmente un jarrón en una foto, pero los robots la confunden con un objeto no identificado. Vicarious, que cuenta con el CEO de Facebook Mark Zuckerberg como inversor, tiene como objetivo resolver esos problemas.
La inteligencia dentro de Kuri , un compañero robot y camarógrafo destinado para el hogar, es diferente. Kaijen Hsiao, director de tecnología del creador Mayfield Robotics, dijo que hay una cámara detrás del ojo izquierdo del robot que reúne video en HD. Kuri tiene sensores de profundidad para mapear la casa y usa imágenes para mejorar la navegación. También tiene características de detección de mascotas y personas para que pueda sonreír o reaccionar cuando están cerca. Kuri también tiene reconocimiento de lugar, por lo que recordará que ha estado en un lugar antes incluso si la iluminación ha cambiado, como la cocina durante el día o la noche. La selección de momentos es otra característica del robot, que le permite reconocer videos similares que graba, como cuando papá juega con el bebé en la sala de estar, y elimina los redundantes.
"Su trabajo es llevar un poco de vida a tu hogar. Ella proporciona entretenimiento: puede reproducir música, podcasts, audiolibros. Puedes verificar tu casa desde cualquier lugar ", dijo Hsiao. Kuri es el camarógrafo de la familia, recorriendo la grabación de la casa para que nadie quede fuera. El robot curará los videos y mostrará los mejores. Para esto, Kuri usa algoritmos de visión y aprendizaje profundo. "Su punto es su personalidad ... [como] un compañero adorable", dijo Hsiao. Kuri llegará al mercado en diciembre a $ 799.
"Hace aproximadamente 100 años, la electricidad transformó todas las industrias importantes. AI ha avanzado hasta el punto en que tiene el poder de transformar "cada sector importante en los próximos años". Andrew Ng
Respuesta empresarial a la IA
Estados Unidos y China lideran el mundo en inversiones en IA, según James Manyika, presidente y director del McKinsey Global Institute. El año pasado, la inversión de IA en América del Norte varió de $ 15,000 a $ 23,000 millones, Asia (principalmente China) fue de $ 8,000 a $ 12,000 millones, y Europa quedó rezagada de $ 3,000 millones a $ 4,000 millones. Los gigantes tecnológicos son los principales inversores en IA, aportan entre $ 20 mil millones y $ 30 mil millones, con otros $ 6 mil millones a $ 9 mil millones de otros, como capitalistas de riesgo y firmas de capital privado.
¿Dónde pusieron su dinero? El aprendizaje automático tomó el 56% de las inversiones con visión artificial en segundo lugar con un 28%. El lenguaje natural obtuvo el 7%, los vehículos autónomos estuvieron en el 6% y los asistentes virtuales se encargaron del resto. Pero a pesar del nivel de inversión, la adopción comercial real de AI sigue siendo limitada, incluso entre las empresas que conocen sus capacidades, dijo Manyika. Alrededor del 40% de las empresas lo está pensando, el 40% experimenta con él y solo el 20% realmente adopta la IA en algunas áreas.
El motivo de tal reticencia es que el 41% de las empresas encuestadas no están convencidas de que puedan ver un retorno de su inversión, el 30% dijo que el caso de negocios no estaba allí y el resto dijo que no tenía las habilidades para manejar la IA. Sin embargo, McKinsey cree que AI puede duplicar con creces el impacto de otros análisis y tiene el potencial de aumentar materialmente el rendimiento corporativo.
Hay empresas que lo obtienen. Entre los sectores líderes en AI se encuentran las empresas de telecomunicaciones y tecnología, las instituciones financieras y los fabricantes de automóviles. Manyika dijo que estos primeros adoptantes tienden a ser empresas más grandes y digitalmente maduras que incorporan inteligencia artificial en las actividades centrales, se centran en el crecimiento y la innovación sobre el ahorro de costos y disfrutan del apoyo de los ejecutivos de nivel C-suite.Los adoptantes más lentos son las compañías de servicios de salud, viajes, servicios profesionales, educación y construcción. Sin embargo, a medida que la inteligencia artificial se generaliza, es cuestión de tiempo antes de que las empresas participen, según los expertos.


Comentarios

Entradas populares