Por: Monserrath Vargas L..   9 junio
Sundar Pichai, director ejecutivo de la compañía presentó Duplex durante la conferencia principal de Google I/O 2018, celebrada en el anfiteatro Shoreline en Mountain View, California. AFP.

Entre asombrados y preocupados, así dejó la gigante de Internet a quienes asistieron a inicios de mayo a su conferencia anual de desarrolladores I/O, tras mostrar Google Duplex, un sistema basado en inteligencia artificial (IA).

La herramienta exhibió su potencial y demostró que, en el futuro cercano, podría permitir al asistente inteligente de la gigante de Internet llamar por teléfono y, en lenguaje natural y nada robótico, reservar una mesa en un restaurante o sacar cita en el salón de belleza.

La sorpresa trascendió las instalaciones del anfiteatro Shoreline en Mountain View, –donde Google exhibió las posibles aplicaciones de esta novedad– y fue a dar a las redes sociales donde las reacciones fueron numerosas y diversas, yendo desde el asombro y la fascinación, hasta la consternación.

¿Por qué la demostración despertó tantas emociones? El asistente no solo logró llamar a un establecimiento y mantener una conversación, sino también fue capaz de utilizar expresiones tales como “hmm” y “uh”, muy características de los humanos.

Ver más!
Ver más!

“En los estudios de usuario, encontramos que las conversaciones que utilizan estas expresiones suenan más familiares y naturales”, aseguró la empresa en su blog de Inteligencia Artificial y de ahí que decidiera incluirlo en su nueva herramienta.

¿Cómo funciona esta tecnología? Google explicó que Duplex se trata de una red neuronal recurrente (RNN), es decir, una red que fue entrenada con ayuda de un corpus de datos de conversaciones telefónicas anonimizadas.

Para conseguir que el asistente sea capaz de realizar estas llamadas, “la red utiliza la tecnología de reconocimiento automático de voz (ASR) de Google, así como las características del audio, el historial y los parámetros de la conversación (por ejemplo, cuál es el servicio que se desea solicitar o la hora) y más”, explica el texto firmado por Yaniv Leviathan, ingeniero principal y Yossi Matias, vicepresidente de ingeniería de Google, en el blog de la compañía.

Inteligencia real

Según Gilles Maury, líder de la industria de Tecnología, Medios y Telecomunicaciones de Deloitte, “lo que vimos con Google Duplex es una inteligencia muy similar a la del ser humano, donde hay una capacidad de encontrar una solución a una actividad que no ha sido prevista o preprogramada”.

En la demostración durante Google I/O, la persona que atiende la llamada no se da cuenta de que está conversando con un robot y no con un ser humano, esto según Maury, “nos reconecta con algo que existe desde el nacimiento de la inteligencia artificial, que es la famosa prueba de Turing”.

Allan Turing, matemático al que se le atribuye la paternidad de la IA había establecido que se podría usar este término como tal, cuando tuviéramos una máquina capaz de hacerse pasar por un humano; él ni siquiera estaba pensando en algo vocal, sino en algo basado en texto, explicó Maury a La Nación. Este avance de Google parece haberlo conseguido.

Ver más!

Ante la preocupación de que al hacer una de estas llamadas el asistente no revelara su identidad frente al interlocutor, por ejemplo, el empleado de un salón de belleza o de un restaurante, Google aseguró en su blog que sí “aclarará la intención de la llamada para que las empresas entiendan el contexto”.

Sobre ese punto, Priscilla Chaves, líder de Experiencia del Cliente de Cognitiva –una empresa de GBM que se encarga de comercializar la división de inteligencia artificial de IBM Watson en Latinoamérica– destacó que debido a la forma en que se presentó Duplex, en medio del keynote principal de Google I/O es normal que la gente estuviese hablando de eso e inclusive que se despertara algo de controversia.

Sin embargo, puntualizó que: “Sobre el tema ético estamos discutiendo hace muchos años. Es por eso que Google, IBM, Amazon, Intel y otros gigantes de las tecnologías son parte de un comité global, en el que firmaron un compromiso para el uso ético y adecuado de la inteligencia artificial.

"Además, establecieron que entre ellos mismos no estarían proponiendo un uso poco ético o irresponsable de un producto (de este tipo)”, aclaró Chaves.

A un mes del Google I/O, la gigante de Internet ha hecho públicos sus principios sobre la inteligencia artificial en una artículo firmado por el mismo Sundar Pichai, director ejecutivo de la compañía.

Sin embargo, no ha puesto el foco en Duplex, citándolo tan solo como “un asistente digital con el que puedes hablar de forma natural”, sino que lo ha mencionado apenas como ejemplo, entre las posibles aplicaciones de la IA.

En cambio, ha fijado siete principios que planea respetar en el uso e implementación de la Inteligencia Artificial, entre ellos destacan: ocuparse de que los avances sean beneficiosos para la sociedad, que eviten crear o reforzar sesgos injustos y que sean creados e implementados en ambientes que garanticen el tema de la seguridad.

Además, que las tecnologías en IA estén sujetas a los controles humanos correspondientes, que incorporen desde su origen cuidados con respecto al tema de la privacidad de las personas y que mantengan altos estándares de excelencia científica, así como que estén disponibles para usos que respeten los principios antes mencionados.

Transformación acelerada

El avance vertiginoso de las tecnologías no solo plantea un reto para las empresas en cuanto a usos éticos, sino también desafía a seguirle el paso a este tipo de innovaciones para poder normarlas y legislarlas, con el fin de proteger la privacidad de los usuarios.

The Future Today Institute, entidad que prepara empresas para enfrentarse a escenarios de futuro complejos, planteaba en su boletín titulado Robots vs Robocalls, que una tecnología como Duplex esboza cientos de interrogantes.

Entre ellas: “¿Cuánta escucha digital están las personas dispuestas a aceptar? ¿Bajo qué circunstancias? ¿Qué pensarían los clientes de esto? ¿Cómo podría este tipo de tecnología afectar un negocio?”.

El Instituto reflexiona sobre la posibilidad de que un servicio de este tipo tenga como requisito para funcionar grabar y analizar la conversación que el asistente virtual sostiene con un ser humano, y que es probable que esas llamadas se analicen posteriormente más a fondo, para modificar y mejorar el sistema en el futuro.

Es así donde surge una de las principales interrogantes, si el servicio no notifica desde un inicio que el que está al otro lado del teléfono es un asistente virtual y, además graba sin solicitar el consentimiento de la persona, ¿estaría infringiendo la ley?

El texto de The Future Today Institute llama la atención respecto a que un periodista o un abogado saben que es ilegal registrar en audio una conversación, sin notificar a todos los que están involucrados en la misma que están siendo grabados. También destaca que en diversos estados de Estados Unidos es ilegal escuchar a escondidas.

Sin embargo, “aquí es donde las cosas se ponen interesantes. Las leyes de espionaje fueron pensadas para otros humanos, no para robots. Estrictamente hablando, los robots no tienen oídos ni ‘oyen’ a los otros oradores”, destaca el mencionado instituto. Es decir, que no se sabría a ciencia cierta si las grabaciones que eventualmente haría una tecnología de este tipo estarían normadas o no.

A pesar de las dudas que genera, no quiere decir que por ello se deba frenar la tecnología. “Lo que hizo Google (con Duplex) es de celebrar, porque este es un avance grandísimo en funcionalidades de conversación ser humano-máquina”, comentó Priscila Chaves.

Además, recalcó que este tipo de industrias se desarrollan para que algo que antes era complejo o molesto, como hacer una llamada al salón de belleza sea ahora más sencillo. “Eso no se debería detener. Lo que tenemos que procurar como sociedad es que nuestra ética también vaya avanzando al mismo nivel que va avanzando la tecnología”, aclaró Chaves.

Con vista al futuro

Por su parte, Gilles Maury, de Deloitte, apuntó a que, por más impresionante que sea esta inteligencia artificial exhibida por Google, sigue siendo algo estrecha.

“Es un robot concebido para solicitar citas y punto, no tiene la capacidad de hacer más que eso. Pasar al otro extremo y extrapolar pensando que esa es la capacidad que permitirá pronto una inteligencia capaz de manejar cualquier situación en un entorno abierto (sería exagerado), para eso obviamente faltan muchos años”, concluyó Maury.

En la actualidad, los chatbots o diálogos robotizados son las manifestaciones más cercanas de inteligencia artificial que las compañías están empezando a implementar en sus páginas y perfiles de redes sociales, plataformas con las cuales las personas se relacionan de forma más cotidiana.

Sandra Morales, Country Growth & Innovation Leader, de las operaciones de Findasense en Costa Rica, explicó que los chatbots que las empresas están implementando en este momento están basados en Machine Learning o aprendizaje profundo.

Según ella existen dos tipos de chatbots. “Están (aquellos que son) preprogramados, básicamente uno hace un árbol de preguntas y respuestas que puede hacer algún cliente sobre la tipología del servicio, horarios, como para que el chatbot le pueda dar la respuesta”, afirmó Morales.

Aunque también destacó que existen de otro tipo, que están basados redes neuronales artificiales, que son los que se consideran chatbots de deep learning o aprendizaje profundo, aclaró la experta de Findasense.

Estos tienen algoritmos complejos que pueden aprender de sí mismos y de las conversaciones que sostienen con los consumidores. Ahora mismo son más caros de implementar y poco comunes en la industria.

“Todo lo que es basado en inteligencia artificial va a ser cada día más masivo, va a trascender e implementarse en nuestro día a día en campos que ahora mismo no podemos ni imaginar, en ciudades, autos y empresas inteligentes, entre más escala haya, más se van a reducir los costos”, concluyó Morales.