Inteligencia Artificial: el bot que detecta Covid en audios de WhatsApp
Inteligencia Artificial: el bot que detecta Covid en audios de WhatsApp
Estamos asistiendo a una irrupción de las nuevas tecnologías como el uso del Big Data por los gobiernos inteligentes, o la Inteligencia artificial, a cada espacio de nuestra vida. En este punto, se empieza a naturalizar, y cada vez nos sorprende menos. Pues bien, te traemos un nuevo caso: Boti, la IA para la detección del COVID19.
Si bien “detección” suena determinante, no lo es con tal nivel de precisión, pero se le acerca bastante. Recientemente nos enteramos que la Ciudad de Buenos Aires (Argentina) ha presentado con bombos y platillos una nueva función para Boti, el chat para consultas del Gobierno. Boti está disponible en WhatsApp, y permite realizar trámites y servicios de manera virtual (podas de árboles, barridos, reparación de veredas y luminarias, y dar aviso por criaderos de mosquitos). Lo curioso es que ahora incorpora un sistema de inteligencia artificial (IATos) con un 86% de eficacia en la detección de casos sospechosos de Covid19.
¿Cómo funciona?
Mediante audios en los que la persona tose, la IA determina en función de su aprendizaje si es conveniente que se realice un test para conocer si es positivo o negativo para Covid.
“Es un paso adelante en el desarrollo de inteligencia artificial, se trata de una herramienta para clasificar sonidos de voz, de respiración y de la tos. A partir de esta incorporación en Boti, vamos a ofrecer a los ciudadanos la posibilidad de saber si es conveniente que se hagan”, explicó Felipe Miguel, Jefe de Gabinete de la Ciudad de Buenos Aires.
Para usarlo, la persona debe acudir a Whatsapp (11-5050-0147) y seleccionar la opción “tengo síntomas de COVID-19″, luego deberá grabar un audio con su tos y enviarlo.
Una vez recibido el audio, el sistema de inteligencia artificial IATos analizará el sonido: si coincide con los patrones de casos positivos le recomendará a la persona hacerse el test de COVID-19.
¿Cómo diferencia entre uno y otro audio?
Con machine learning. Es decir, con una base de datos y un aprendizaje previamente programado durante el lapso de un año. Para ello se “cargaron” 140.000 muestras diferentes de tos, de personas que habían dado positivo en sus tests. Según detalló el subsecretario de Planificación Sanitaria, Daniel Ferrante, “La tos genera una resonancia diferente” en quienes cursan la infección por COVID-19. Se trata del patrón sonoro, y con ello trabaja la IA.
Para recabar estas muestras, Boti le consultó a quienes se habían testeado en la Ciudad y debían recibir el resultado del PCR por esta vía, si querían participar enviando un audio grabado con su tos. Con ese material se armó la base de datos que luego nutriría al sistema IATos.
Para dimensionar de qué forma funciona, en una prueba preliminar se evaluó 2.687 audios y sobre este grupo IATos recomendó realizarse el testeo a 554 personas. De esas 554 personas, 436 resultaron positivas y 118 fueron negativas en su hisopado.
Datos públicos
La base de datos de toses positivas y negativas recolectada es de dominio abierto por disposición del gobierno de la ciudad, y es accesible para su consulta desde este enlace: https://data.buenosaires.gob.ar/dataset/tos-covid-19
Los datos recolectados corresponden a 2821 personas que fueron hisopadas en la Ciudad de Buenos Aires, entre el 11 de agosto y el 2 de diciembre de 2020, de las cuales el 52,6% de los individuos eran mujeres y el 47,4% eran hombres. Además, de este grupo se constató que 1409 dieron positivo a COVID-19 y 1412 dieron negativo.
Si te interesa profundizar más como experto, en el GitHub de la Ciudad de Buenos Aires, está publicado el backend de IATos: la red neuronal, el código que funciona detrás de Boti, etcétera: https://github.com/gcba/IATos
La controversia
El anuncio no pasó desapercibido entre investigadores especializados en aprendizaje automático aplicado a la salud, quienes consideraron que no cumple con los requisitos del método científico. Los expertos objetaron falencias metodológicas, información incompleta o inconsistencias. Además, reclaman que no se adapta a reglas básicas de la ciencia, y es que los trabajos experimentales deben poder ser evaluados por pares y reproducidos por equipos independientes.
Sin ir más lejos, Diego Fernández Slezak, multipremiado investigador del Conicet en el Laboratorio de Inteligencia Artificial Aplicada de la Facultad de Ciencias Exactas de la UBA, especializado en procesamiento del lenguaje natural, afirmó que un grupo de investigadores descargaron los datos e intentaron hacer una réplica siguiendo la descripción del informe técnico y no obtuvieron los mismos resultados.
Lo que sí sabemos es que en ninguna instancia se afirma que el resultado es definitivo, sino más bien es una guía, una forma de orientación que sugiere a la persona ir a hacerse el test correspondiente a los fines de detectar casos positivos que de otra manera no hubieran ido a testearse. Por este mismo motivo, la tecnología tampoco se sometió a la auditoría de la Anmat (Administración Nacional de Medicamentos, Alimentos y Tecnología Médica), la organización encargada de llevar adelante todos los procesos de autorización, registro, normatización, vigilancia y fiscalización a nivel nacional en temas de salud.
¿Conocías sobre este tipo de aplicaciones de la Inteligencia artificial? Descubre más en este artículo (clic en el enlace) y comparte este contenido si te ha gustado.
¡Nos vemos en un próximo artículo!
¿Qué es un Data Lake?
Data Lake, qué son, cómo se relacionan con el Big Data y para qué sirven.
La generación de datos constante por nuestra parte ha ido generando nuevos desafíos. Uno de ellos es dónde y cómo se almacenan esos datos. Quédate con nosotros en esta nota para comprender mejor qué es un lago de datos.
Sabemos que cada persona produce (en promedio) 1.7 Mb de información por segundo, y que además ésta es heterogénea: texto, imágenes, Gif’s, posiciones GPS, mensajes de texto (sms), videos, tweets, audio, etc.
Para enfrentar este problema, los Científicos de Datos acuñaron el los “Data Lakes”. Pero ¿qué son?
La definición más simple nos dice que se trata de un repositorio que posibilita almacenar grandes volúmenes de datos brutos en el formato nativo en forma indefinida. Es decir, datos en su formato original, en forma permanente. Pero esto también tiene consecuencias: algunos han empezado a plantear la situación en la que a estos lagos los llaman Data Swamps o pantanos de datos, puesto que al almacenarse los datos en su formato original, muchos de ellos son irrelevantes.
Aparecen en los años 2000 como una forma más rentable para el almacenamiento de datos no estructurados, y por consiguiente, más flexibles.
Lo que sí tenemos claro es que los Data Lakes permiten que los datos sean almacenados de forma tal que facilite su explotación. Están diseñados para retener todos los atributos, especialmente cuando aún se desconoce el ámbito de los datos o su uso.
En un ‘data lake’ a cada dato se le asigna un identificador único, junto con un conjunto de etiquetas de metadatos extendidos. Esto se hace para que, cuando se plantea una pregunta comercial, se pueden rescatar los datos relevantes del Data Lake para poder analizarlos y aportar respuestas a la pregunta.
Como ya hemos mencionado en artículos anteriores, ocurre lo mismo que sucede siempre con el Big Data: el volumen y características de los datos ya no pueden ser procesados con los métodos tradicionales. Se necesita de tecnologías y profesionales para ello. Con los lagos de datos, las empresas necesitan científicos de datos capaces de extraer conclusiones a partir del análisis de los datos en bruto. Se los requiere para detectar correlaciones entre datos y extraer conclusiones a medida que profundizan en ellos.
Esperamos te haya resultado interesante este artículo, y que puedas reflexionar sobre los datos, su almacenamiento y su posterior utilización. ¡Te esperamos en la próxima nota!
¿Es el Big data la cuarta revolución industrial?
El Big Data considerado la cuarta revolución industrial
En el futuro habrá autos voladores, los teléfonos no tendrán cable y las personas podrán verse y conversar estando a grandes distancias. Pues bien, estamos en el futuro y casi que no nos dimos cuenta en qué momento pasó. Ahora tenemos mucho por conocer y entender, y una de esas cosas es la Cuarta Revolución Industrial y el papel del Big Data en ella.
Por empezar, una revolución industrial significa que estamos hablando de un proceso de transformación económica, social y tecnológica. La primera significó un cambio hacia una economía de carácter urbano, industrializada y mecanizada; la segunda estuvo asociada a la producción en masa, línea de montaje y electricidad, mientras que la tercera (también llamada científico-tecnológica) estuvo ligada a una mayor utilización de las energías renovables y tecnologías de almacenamiento de energía, red de distribución de energía eléctrica “inteligente” y cambios en la logística y transporte.
Ahora bien, la cuarta revolución o Industria 4.0 se abre camino de la mano de la inteligencia artificial como protagonista; la generación, acumulación y procesamiento de grandes cantidades de datos (Big Data) que son procesados por algoritmos, y la interconexión masiva de sistemas y dispositivos digitales.
En esta instancia, lo que observamos es una completa digitalización, integrada en todos los procesos de la producción. Desde la obtención de la materia prima, pasando por los procesos de producción y distribución, hasta la logística que se encargue de llevar el producto a las manos del cliente, e incluso posterior a ello (seguimiento, retención, posventa, etc.) en forma individualizada. Entonces, de lo que se trata es de una organización de los procesos y medios de producción, algo que ya empezó a hablarse por el año 2011, donde el elemento clave de esta revolución lo marcaron las fábricas inteligentes, enfocadas en las necesidades de producción y en la eficiencia de los recursos.
Producción, almacenamiento y procesamiento de datos
El Big Data es clave en esta revolución, dado que se trata de inconmensurables cantidades de datos que ya no pueden ser gestionados de la misma manera que se venía haciendo, es decir, con los métodos tradicionales. Se necesita ahora no solo de la tecnología adecuada, sino también de los recursos humanos capacitados para su manejo y análisis. Con el registro o huella digital de cada accion que realizamos, desde la película/serie que elegimos, los pagos que hacemos con nuestras tarjetas, las búsquedas que hacemos en internet o lo que hacemos en redes sociales… todo es un dato que será susceptible de ser procesado a los fines de predecir comportamientos de consumo, o incluso intenciones de voto.
Es por ello que decimos que el dato es un activo estratégico, cada vez más importante para las empresas puesto que les permitirán dar un salto cualitativo.
La transformación digital está encima nuestro, es una realidad y la postura de las empresas y negocios frente a ella definirá su futuro. Implementar esta digitalización, sumado a la recolección de datos y su tratamiento, representa una ventaja competitiva que marcará una diferencia en todos los niveles de la cadena productiva. Si quieres saber más sobre los beneficios del Big Data para los negocios, te recomendamos este artículo sobre los Beneficios de contratar servicios de Big Data para tu marca.
Esperamos que te haya resultado interesante el artículo. Recuerda compartirlo si es así, y seguirnos en redes sociales para más novedades e investigaciones propias con Big Data.
Hasta la próxima ?
Inteligencia Artificial y Machine Learning, ¿Son lo mismo?
Inteligencia Artificial y Machine Learning, conoce las diferencias
Términos que se suelen confundir, porque sí, están relacionados, la Inteligencia Artificial y Machine Learning, ¿Son lo mismo? Descubre en esta nota las características de cada concepto y obtén la respuesta.
La inteligencia artificial (IA) trata de poder conseguir lo que logramos con la inteligencia humana, pero a través de métodos artificiales. Nos referimos al reconocimiento de patrones para alcanzar objetivos o resolver problemas.
Ya en los años `50 y `60 encontramos las primeras formas de esta tecnología, que lograban conseguir jugar a las damas, hablar inglés o resolver problemas de álgebra y lógicos. Hoy los usos van desde bots conversacionales que responden en consultas de atención al cliente, aceleración de servicios financieros, innumerables aplicaciones en ciencia y salud, simulaciones para anticipar comportamiento climático, o la forma en que minoristas y restaurantes resuelven problemas de escasez de mano de obra, limitaciones en cadena de suministro y mejoras en la experiencia de usuario.
Si queremos un dato bien actual, la supercomputadora de IA que está empleando Meta, brindará a los investigadores 5 exaflops de rendimiento de IA.
Quizás te interese nuestro descargable sobre el lanzamiento de Meta, la nueva marca de Facebook.
Meta tiene como objetivo usarlo para entrenar modelos de IA con más de un billón de parámetros: “Esperamos que RSC nos ayude a construir sistemas de IA completamente nuevos que puedan, por ejemplo, impulsar traducciones de voz en tiempo real para grandes grupos de personas, cada una hablando un idioma diferente, para que puedan colaborar sin problemas en un proyecto de investigación o jugar un juego AR juntos”, dijo la compañía en un blog.
Aquí es donde encontramos un nexo con Machine Learning. Cuando Meta dice que pretende “entrenar modelos de IA con más de un billón de parámetros” nos acercamos a la idea de Aprendizaje Automático.
¿De qué se trata un modelo de Machine Learning?
Impulsados por datos, los modelos de Machine Learning son los motores matemáticos de la IA, expresiones de algoritmos que encuentran patrones y hacen predicciones más rápido que un ser humano. Es decir, es una forma de expresión de un algoritmo que encuentra patrones en grandes cantidades de datos, e incluso puede hacer predicciones.
Si la Inteligencia Artificial fuera un automóvil, el machine learning sería su motor, y los datos el combustible.
El ML es una representación de objetos y sus relaciones entre sí, donde esos objetos pueden ser desde un like en una red social, hasta moléculas en un experimento.
Ahora bien, no todo es tan sencillo como suena. De hecho, se necesita un enorme conjunto de datos, mucha experiencia en inteligencia artificial y una gran capacidad informática para entrenar un modelo. Los compradores inteligentes compran modelos preentrenados para ahorrar tiempo y dinero. Pero ¿cómo saber si estoy adquiriendo el modelo preentrenado que necesito?
Bueno, cada uno viene con un catálogo o descripción que detalla el dominio para el que se entrenó el modelo, con qué conjuntos de datos se lo entrenó y cúal es su expectativa de funcionamiento. Esto nos acerca al modelo correcto para el uso que pretendamos darle.
Entonces, en resumen, mientras que la inteligencia artificial son sistemas o máquinas que imitan la inteligencia humana para realizar tareas como el análisis de datos, con el objetivo de mejorar las capacidades y contribuciones humanas; el machine learning o aprendizaje automático es una parte de la Inteligencia Artificial que posibilita que las máquinas aprendan por sí solas, sin necesidad de una programación para ello. Esto lo que permite es contar con sistemas capaces de detectar patrones entre los datos para hacer predicciones. Y ya vimos el ejemplo de Meta como un caso reciente de su uso, entre tantos otros.
Esperamos te haya resultado interesante entender estas diferencias.
¿Te gustó el artículo? ¡Compártelo!
Beneficios de contratar servicios de Big Data para tu marca
¿Por qué deberías contratar servicios de Big Data?
Las marcas y las empresas cada vez más se están familiarizando y acercándose a la idea de contratar los servicios de big data para sus negocios, a los fines de optimizar tiempos y recursos, aumentar ganancias y expandir su campo de acción. Quédate en este artículo para conocer cómo podemos ayudarte.
No se trata sólo de traer datos porque sí. Se trata de buscar insights que nos den pautas para seguir nuestro trabajo, tomar decisiones estratégicas basadas en algo más firma que meras suposiciones. Uno de ellos son las emociones de los usuarios.
El auge de los medios digitales y las redes sociales han impulsado el interés en el análisis de los sentimientos. Con la proliferación de las revisiones, valoraciones, recomendaciones y otras formas de expresión digital, la opinión on-line se ha convertido en una especie de moneda virtual para empresas que buscan comercializar sus productos, identificar nuevas oportunidades y gestionar su reputación; o partidos políticos que buscan generar una recordación de ideas o propuestas políticas con la gente.
Reputación Digital cuenta con el equipamiento tecnológico necesario para la captura y seguimiento de contenidos que generan los usuarios en redes sociales y en internet en general, los cuales permiten dar feedback mediante sistemas inteligentes de extracción de información que reside de manera implícita en los datos. Esto se logra mediante Redes Neuronales Artificiales (ANN). Tal como funciona un cerebro, se trata de un tipo de machine learning en el cual se le programa inputs (por ejemplo, se cargan una serie de imágenes de perros para que la máquina aprenda a reconocerlos) que permiten generar redes neuronales con otros inputs, formando una red de aprendizaje. Pero lo más sorprendente es que algunas crean sus propias “neuronas” sin necesidad del input. Hablamos de aprendizaje automático.
Big Data, pero…
Cuando hablamos de Big Data siempre decimos que son grandes volúmenes de datos. Si, estamos de acuerdo, pero … ¿qué tienen esos datos? ¿Datos de qué? ¿Qué sería en específico? Pues bien, ahora te contamos los detalles.
Algunos de estos datos que mencionamos podrán incluir, siempre según la necesidad de la marca, por ejemplo mapas semánticos sobre la percepción general que las comunidades digitales tienen del mundo online respecto de las marcas, como así también sobre nombres o conceptos específicos. Supongamos que queremos saber sobre el actor Leonardo Di Caprio, un político como Manuel López Obrador, el concepto de “Inteligencia Artificial” o sobre la marca Amazon. Los mapas semánticos son prácticos instrumentos de representación, que permiten transmitir con claridad y sencillez mensajes conceptuales complejos.
Además de los mapas semánticos, podemos por ejemplo visualizar los mapas tópicos, los que serán más útiles para su estrategia de comunicación según cada caso. Otra opción bien podría ser una interfaz que permite encontrar puntos positivos y negativos de la marca, representados en cuadros gráficos de áreas de oportunidad, mejora, amenazas y fortalezas. Interesante, ¿no?
Este tipo de datos se presentan normalmente en informes mensuales (o según el período especificado por los equipos de análisis de las empresas) que se apoyan en herramientas tecnológicas de recopilación (extracción), almacenamiento (servidores) y análisis de registros extraídos en Internet, mediante el proceso de datos masivos (Big Data). Los conceptos presentados en el informe engloban las percepciones y deseos de los usuarios en internet, los cuales se estructuran por pesos cualitativos.
Mediante sistemas de procesamiento semántico y sistemas inteligentes de captación de datos de medios on-line, se localizan las menciones y luego se transforman en registros, que serán posteriormente procesados y analizados.
¿Qué permite esto? Entender y graficar las opiniones de los internautas diaria, semanal, mensual o incluso anualmente. Este universo de opiniones es infinito y estas se extraen de todos los medios online de cualquier parte del mundo, con especial énfasis en opiniones de las redes sociales Facebook, Instagram y Twitter.
Ya vimos entonces que algunos de estos datos del Big Data son las percepciones de usuarios en Internet, y su análisis. Pero cuando hablamos de datos, también nos referimos a gráficos de conceptos asociados relevantes, cantidad de menciones en Internet, alcance (reach) y viralización de usuarios y publicaciones, pico de menciones/conversaciones, resumen de redes y medios digitales utilizados, análisis de sentimientos (sentiment analysis), listado de usuarios más influyentes, de usuarios más activos, de los post con más alcance, de relaciones de los usuarios más activos, de relaciones de los usuarios más activos por sentimientos, de los tópicos generales de discusión generales, de los tópicos generales de discusión por sentimientos, un panorama de la imagen general de marca y su reputación online, pesos de argumentos, tópicos positivos y tópicos negativos, mapas perceptuales de imagen de marca, georeferenciación de reclamos o menciones especiales (por ejemplo, reclamos en torno a una tienda que no posee en stock cierto producto), etc.
Servicios que podría contratar para mi marca
Si no sabes por dónde empezar, pregúntate qué te gustaría saber sobre tu marca, sobre el mercado o industria o sobre tu competencia. También podrás hacer una mirada introspectiva y buscar comprender cuál es tu producto/servicio estrella, o en dónde conviene poner el dinero para una eficiente pauta publicitaria. Lo importante es preguntarle a los datos.
Reputación Digital puede monitorear y analizar los datos públicos, incluyendo todos los medios de comunicación digital, permitiendo sacar a la superficie las intenciones de consumo o voto, preferencias y consideraciones de los usuarios digitales en internet. Nuestros servicios de Big Data incluyen consultoría en Medios Digitales, informes sobre redes sociales, tendencias de comportamiento y consumo, informes sectoriales sobre Internet y Redes Sociales, medición de la reputación de marcas, análisis de tendencias de comportamiento a nivel político, entre otros.
¿Te interesa conocer más? Mejor conversar ?
Escríbenos a info@reputaciondigital.info o mandanos un mensaje por Whatsapp al +54 9 11 6883-0003 y hablemos sobre las necesidades de tu marca o marca personal.
Big Data Vs. Small Data
Big Data Vs Small Data, ¿Cuál es la diferencia?
Te contamos las diferencias entre Big Data y Small Data, y por qué ambas son importantes y pueden influir en las decisiones de una empresa.
Es probable que hayas escuchado hablar sobre el Big Data, ¿no? Hay bastante sobre ello, aunque a veces es bueno reforzar algunos conceptos. Pero también existe el Small Data, no tan conocido, pero de gran importancia y utilidad. Y no se trata de lo opuesto inversamente proporcional. Pensar que uno es grande y otro es chico, sería simplificarlo demasiado. Hay un par de detalles más que quizás te interesen.
Big Data
Comencemos por el más conocido, el Big Data. Éste se basa en la idea de que las marcas emplean grandes cantidades (a nivel masivo diríamos) de datos para identificar patrones sobre el comportamiento de sus clientes y/o para impulsar su negocio. Pero las organizaciones no la tienen fácil, ya que deberán extraer, limpiar y organizar toda esa data proveniente de varias fuentes, en un solo espacio. Tarea no fácil ya que se requiere de herramientas y personal capacitado para esa organización antes de que se convierta en un recurso más valioso. Sí, es valioso, ya que el dato es un activo estratégico. Entonces, el Big Data trabaja por medio del análisis y parametrización de datos masivamente.
¿Cuál es su beneficio? Revelar patrones, tendencias y asociaciones, especialmente en relación con la conducta humana y las interacciones de los usuarios, sirviendo a los negocios en la toma de decisiones estratégicas. Esto a modo de resumen, claro. Podríamos hablar mucho más sobre sus beneficios, pero eso será tarea de otro artículo.
Vamos a lo nuestro: Small Data
Esta vez, para los ansiosos, haremos una enumeración de cualidades del Small Data: es escalable y accesible, simple, centrado en la utilidad y objetivos dado que son datos accesibles, informativos y procesables: más fáciles de conseguir y mucho más fáciles de traducir en ideas procesables.
Hasta aquí una definición express. Ahora ahondemos un poco.
Small Data son datos, al igual que el Big Data, pero en menor escala, más simples y más fáciles ¿Por qué? Porque son accesibles a todo tipo de empresas y marcas, y se trata sólamente de datos que son útiles para la empresa en el momento en que se requieren, pudiendo agregar más datos en un futuro, sobre todo cuando se cuente con recursos humanos y tecnológicos adecuados. Esto los convierte en escalables.
También, suponen menos costos de implementación y una rápida recuperación de la inversión (ROI), y gracias a su menor volumen, son más accesibles, informativos y procesables. Esto a su vez supone una práctica comercial más eficiente, al permitir implementar campañas más eficaces en menos tiempo.
Aquí lo que no hay que perder de vista es que tanto el Small como el Big Data son igual de importantes, ya que pueden influir en decisiones y resultados de la organización. De hecho, el small data se enfoca en la utilidad para la empresa, y en sus objetivos, al analizar datos de las actividades diarias de nuestra empresa. Es decir, datos extraídos de algunos usuarios particulares seleccionados por motivos relacionados directamente con los objetivos de la empresa, a los fines de obtener información detallada sobre los deseos e intereses de algunos de nuestros clientes potenciales.
Es por ello que cuando transformamos Big Data en Small Data, habilitamos la comprensión de inversionistas y tomadores de decisiones. Se transforma en inteligencia empresarial.
En resumen
Analizar Big Data es más complicado que el Small Data, dado que se necesita de tecnología y profesionales expertos de Datos que sepan analizar y manejar grandes volúmenes de datos para extraer solo la información relevante.
Small Data es más sencillo, puesto que no es necesario de un data scientist para analizar y manejar los datos. Por otro lado, su foco está puesto en conocer al consumidor, en lo que necesita y de qué manera podemos interactuar con él. Facilita el acceso a la información necesaria para implementar campañas personalizadas y afines a sus gustos, necesidades e intereses. De esta forma las marcas pueden interactuar con sus clientes de manera personalizada y basar sus decisiones en datos en lugar de creencias.
El Small Data ya tiene su aplicación en el sector consumo. Lo notamos cuando día a día nuestros dispositivos inteligentes o los de IoT (Internet of Things) optimizan nuestras compras, mejoran nuestra actividad física, manejan nuestras finanzas o nos recomiendan qué contenidos ver en Tv, basados en nuestros gustos y preferencias.
A nivel empresa, el small data permite crear perfiles CRM (bases de datos). Obteniendo información de canales sociales sobre nuestros clientes, se pueden crear segmentos, perfiles, definir influencers o los que pueden terminar siendo grupos de interés.
¿Te imaginabas todo lo que vimos en este artículo sobre Small Data? Al final no era solo “pequeños datos”, y su importancia resultó ser mayor de la que suponíamos.
¿Necesitas trabajar con datos? En Reputación Digital podemos ayudarte con el Big Data para tu marca. Contamos con el equipamiento, software y personal capacitado para ello. Escríbenos, ¡conversemos!
Hasta aquí nuestro recorrido. ¿Te gustó este artículo? ¡Compártelo!
Inteligencia Artificial: ejemplos de uso real en la actualidad
Inteligencia Artificial: ejemplos de uso real en la actualidad
Inteligencia artificial, algo que algunos ya venimos viendo cuando sólo estaba en la ficción, pero que ahora no solo se ha vuelto real, sino que cada vez está más presente en nuestras vidas, y está generando cambios a niveles inimaginables. Quédate en esta nota para conocer más sobre ejemplos de uso en la actualidad.
Cuando hablamos de inteligencia artificial a varios se nos viene a la mente películas como Terminator, Matrix, Yo robot, Tau o algunas más dulces como Wall-e o A.I. Artificial Intelligence. Lo que en su momento era una idea que pertenecía a la ciencia ficción, ya se ha vuelto realidad, se ha ido perfeccionando, y al día de hoy avanza a pasos agigantados. Incluso fuera de nuestro conocimiento. Lo que sí sabemos es que los campos de aplicación son tan diversos como los que puede intervenir la raza humana.
En una concepción amplia y macro, la inteligencia artificial (IA) se basa en obtener, por métodos artificiales, lo que alcanzamos con la inteligencia humana: el reconocimiento de patrones para alcanzar objetivos o resolver problemas.
Los orígenes de la IA se remontan a los años 1950/60, cuando las primeras formas de esta tecnología lograban jugar a las damas, hablaban inglés o resolvían problemas algebraicos y lógicos. Hoy los usos y aplicaciones se han diversificado enormemente.
El fantasma de Skynet
Se conoció por numerosos portales, la hasta el momento espeluznante noticia en la cual una inteligencia artificial de Facebook tuvo que ser desconectada porque dos ‘bots’ desarrollaron su propio lenguaje. Al fin de cuentas no fue tan así. El objetivo del proyecto era que estas máquinas pudieran aprender cómo negociar acuerdos de manera tan natural que el usuario no se dé cuenta de que estaba hablando con un robot. Como en definitiva el interés era diseñar dos “bots” que pudiesen hablar con la gente, y no que lo hiciesen eficientemente entre ellos, se decidió exigirles que se escriban entre ellos de forma legible. En definitiva, no pasó a mayores, pero… es un llamado de atención a considerar.
Aplicaciones en el área de Salud
El uso de IA en el área de salud es muy interesante puesto que permitirá hacer predicciones sobre la salud humana y desarrollar mejores medicamentos que tengan el doble de chances de tener éxito en la etapa clínica y de convertirse en terapias aprobadas que beneficien a los pacientes.
El Laboratorio Nacional Argonne de Estados Unidos se encuentra en proceso de aprovechar la IA para ayudar a los investigadores gubernamentales en el análisis de los potenciales tratamientos contra el coronavirus. ¿De qué forma? Por ejemplo, una de las formas viene de la mano de modelos y simulaciones hechas con IA para entender cómo las moléculas interactúan con los medicamentos y cómo se puede interferir en la proteína del virus que se une a la proteína celular.
Rick Stevens, director del Laboratorio Nacional de Argonne, afirmó que la inteligencia artificial ayudará a “explorar tratamientos y vacunas, estudiando la propagación del virus, lo que permitirá a los científicos realizar trabajos acelerados por IA en meses o días”. Los investigadores podrán analizar “mil millones de medicamentos en menos de 24 horas”. Para poder dimensionar el aporte que realiza, sin esta potencia adicional los investigadores necesitarán aproximadamente un año para evaluar los mismos productos terapéuticos.
En salud ya hay grandes avances de la IA en la comprensión más profunda de enfermedades cerebrales, como la demencia, diseño de nuevos fármacos y la mejora de la precisión para encontrar variaciones que causan enfermedades en los genomas humanos.
¿Cómo se logra? Se le enseña a los modelos de IA a generar imágenes cerebrales sintéticas aprendiendo de miles de resonancias magnéticas cerebrales, de varias personas con diferentes edades y enfermedades. Todo esto permite utilizar este modelo de datos sintéticos para comprender mejor enfermedades como la demencia, los accidentes cerebrovasculares, el cáncer cerebral y la esclerosis múltiple, y así habilitar un diagnóstico y un tratamiento más tempranos.
AstraZeneca tiene un proyecto enfocado en el uso de la IA en la patología digital. Aquí se utiliza mucho tiempo y dinero en anotar imágenes de diapositivas enteras de muestras de tejido, para ayudar a la búsqueda de nuevos resultados. Mediante el uso de algoritmos de IA no supervisados que se entrenan en miles de imágenes, es posible eliminar el proceso de anotación al mismo tiempo que se encuentran posibles características de imagen que se correlacionan con la respuesta a los fármacos.
Ciencia
Actualmente, otro de los proyectos en curso pretende desarrollar con IA el mapa 3D más grande del universo visible hasta la fecha. La forma en que se hará es por medio de la captura de imágenes y datos del Instrumento Espectroscópico de Energía Oscura (DESI), que puede capturar hasta 5,000 galaxias en una sola exposición. El procesamiento permitirá procesar docenas de exposiciones una noche para saber hacia dónde apuntar DESI la noche siguiente. Para dimensionar, este trabajo para ser publicado debe prepararse durante semanas o incluso meses, y con la IA esto se resolvería en unos pocos días.
Podríamos mencionar otras aplicaciones a nivel científico, como la física de partículas, la ciencia de los materiales y la bioenergía. Un ejemplo de esto es el de las interacciones subatómicas: se logra una simulación de forma precisa sobre el comportamiento de los átomos en períodos de tiempo más largos que los que se logran conseguir ahora (nanosegundos).
Otros usos
Como hemos visto, hay grandes avances en materia de ciencia y salud, pero las ramificaciones van más allá, tocando todos los ámbitos de la vida. Uno de ellos es la ya conocida computación en la nube, pero también aplica la IA en la conducción y vehículos autónomos, algunos dispositivos de consumo, o incluso en el arte y otros usos como el caso de la inteligencia artificial de NVIDIA que “pinta” fotos al hablar.
Una que ya conocemos es el uso para atención al cliente, mediante bots de respuestas por medio de Inteligencia Artificial Conversacional. También hay aplicaciones para la agricultura y la manufactura, en la predicción de impacto medioambiental (repoblaciones forestales, riegos, refinerías, industrias químicas, riesgo de incendios, simulación de comportamientos geológicos, etc).
En economía, podríamos hablar de los usos para la configuración de modelos económicos, en el desarrollo de simulaciones de comportamiento de la economía, predicciones de inflación o deflación, etc.
Gobiernos Inteligentes
Ahora bien, además de las ciudades inteligentes, se puede aplicar la IA en los gobiernos inteligentes: hablamos de automatización y predicción del trabajo de los tribunales. El principal beneficio de su aplicación radica en la reducción de tiempos prácticamente a segundos de lo que normalmente llevan horas y días en lo que refiere a tareas burocráticas y rutinarias. Esto posibilita una mayor eficiencia en el servicio prestado. Si bien en el campo judicial por ejemplo es muy reciente, aún a sabiendas de la capacidad de procesamiento de información en grandes volúmenes y la reducción de plazos burocráticos, ya se está implementando y notando una drástica reducción de tiempo en cuestiones muy puntuales.
Comercio y Retail
En el comercio, las tiendas inteligentes tienen la posibilidad de destinar recursos de IA para el análisis de videos inteligente (IVA) para detectar errores de escaneo con precisión en tiempo real y recopilar datos sobre pasillos populares, visitantes únicos y datos demográficos de los clientes. Esto permitirá hacer cambios para mejorar la experiencia del cliente, diagramar mejores ofertas, etc.
Todavía queda mucho más por conocer sobre el empleo de esta tecnología, ya que esto es solo un pequeño vistazo a apenas algunas áreas nada más. Te invitamos a seguir explorando y conociendo más sobre lo apasionante de la IA. Hay quienes la llaman la electricidad del siglo XXI, ¿tú qué opinas?
Esperamos te haya gustado el artículo, y si es así, ¡compártelo!
Globos de Oro, los protagonistas en las redes
Golden Globes Awards, la ceremonia que no fue y lo que dejaron las redes sociales
Pasaron los Globos de Oro el pasado 9 de enero, y dejaron mucha tela para cortar, aunque no precisamente la de la alfombra roja, que brilló por su ausencia. Conoce cómo impactó la entrega de premios en Twitter y cuales fueron los que estuvieron en boca de los usuarios de redes sociales.
En su 79ª entrega, esta edición no tuvo transmisión, a lo que sumamos los señalamientos por falta de diversidad entre los miembros del jurado, o el pago de la estadía en un lujoso hotel de París de unos 30 miembros, a cargo de la producción de la serie Emily in Paris.
Pero bien, vamos a lo nuestro. Monitoreamos el evento, considerado la antesala del Oscar, y nos metimos en la conversación de Twitter unos días antes y un par de días después para extraer la data del desarrollo de las menciones.¿Habrá acompañado la comunidad digital los resultados de la entrega? Veamos.
Desde el 6 de enero al 14, monitoreamos la conversación en torno a la cuenta @goldenglobes y los hashtags #GoldenGlobes, #Goldenglobe2022, #GlobosDeOro y #Goldenglobes2022.
En total, se generaron 46,225 menciones, y este representó el volumen de la conversación en torno a la ceremonia de entrega de premios. Esto supuso, además, la participación de 26,265 personas, las cuales interactuaron con algunos de estos hashtags o la cuenta oficial.
Para dimensionar, sólo la cuenta @goldenglobes aparece en 19.134 oportunidades mencionada, mientras que #Goldenglobes2022 fue empleado 302 veces, y #GlobosDeOro unas 11 oportunidades.
En la evolución de la conversación podemos ver que el pico de menciones se produjo el 10 de enero a las 00:00 (y es entendible, el evento se realizó por la noche del día domingo 9 de enero). Aquí se alcanzaron casi 18K menciones y fue el momento de mayor volumen de conversación.
Ranking: los tweets con mayor difusión
Los tweets con mayor difusión también nos mostraron por donde se movió la conversación y el interés de los usuarios digitales. En esta medición, destacaron Andrew Garfield y su premio como Mejor Actor – Película – Musical/Comedia, Mj Rodriguez por su protagónico en Pose y su premio a Mejor Actriz de Televisión – Serie Dramática, la serie Succession y su premio a Mejor Serie Dramática, como así también Sarah Snook por su papel de Siobhan Roy en la serie Succession.
Además, aparece Encanto de Disney por su premio a la Mejor Película Animada, y el actor O Yeong-su y su Globo de oro al Mejor Actor de Reparto por su participación en “El juego del Calamar”.
También sobresalieron Jeremy Strong, quien se llevó su Globo de oro como Mejor Actor de Televisión (Serie Dramática) y Hans Zimmer por la película “Dune” y el premio a la mejor banda sonora. En la otra vereda, el premio a la mejor canción de película es para “No Time To Die”.
Por último, Drive My Car, película japonesa que ganó el premio a Mejor Película en Idioma No Inglés, y The Power of the Dog por llevarse a casa el premio a la Mejor Película (Drama), también estuvieron entre los tweets de mayor alcance del período analizado.
Los idiomas detectados y que hablaron del tema, usaron los hashtags o interactuaron con la cuenta oficial estuvieron dominados mayormente por el inglés en un 95%, seguido por la lengua española en el orden del 2,97%, siendo el tercer idioma más empleado el portugués con 1,45% de las menciones.
Los Protagonistas
El hashtag #SquidGame fue empleado unas 232 veces, y es allí donde principalmente felicitan al actor O Yeong-su por ser el primer actor koreano en ganar un Golden Globe.
En nuestra medición, quien ganó el premio como Mejor actor de reparto en TV, O Yeong-su por “El juego del calamar” tuvo 1,257 menciones en el período analizado.Fue uno de los personajes más mencionados.
Otro destacado fue Andrew Garfield, quien ganó el premio Globo de oro como Mejor actor de comedia o musical por su participación en Tick, tick… BOOM! al reunir unas 4,752 menciones a su persona. Sin duda uno de los favoritos de esta entrega.
Quien no pasó desapercibida es Michaela Jaén Rodriguez, quien ganó como Mejor actriz de TV (drama) por su protagónico en la serie Pose. La comunidad la hizo partícipe con 5,888 menciones. Y no es un dato menor, ya que es la primera actriz trans en ganar un Globo de Oro.
Luego tenemos a uno de los pesos pesados de la noche: la serie Succession. Aquí destacaron Sarah Snook con 2,390 menciones, quien resultó ganadora del premio a Mejor actriz de reparto en TV, y Jeremy Strong, ganador como Mejor actor de TV (drama) con 949 menciones.
La serie Succession, ganadora del premio Mejor serie de televisión (drama) logró 4,755 menciones y es lo más mencionado del evento. ¿Tu qué opinas?
De las series pasamos a las películas, y es que The Power of the Dog (“El poder del perro”) ha resultado ganadora como Mejor película (drama) y además fue acompañada con 929 menciones.
Uno más para destacar es el premio a la Mejor canción: No Time to Die, de Billie Eilish, para No Time to Die con 1,001 menciones.
Ahora sí, ya que presentamos nuestros destacados, te dejamos el listado con otros premios y sus menciones correspondientes por parte de la comunidad twittera:
West Side Story: Mejor película (comedia o musical) 831 menciones
Jane Campion – “El poder del perro”: Mejor dirección 667 menciones
Kenneth Branagh – “Belfast”: Mejor guión 488 menciones
Will Smith- King Richard: Mejor actor de drama 830 menciones
Nicole Kidman – Being the Ricardos: Mejor actriz de drama 692 menciones
Rachel Zegler – West Side Story: Mejor actriz de comedia o musical 21 menciones
Ariana DeBose – West Side Story: Mejor actriz de reparto 23 menciones
Kodi Smit-McPhee – “El poder del perro”: Mejor actor de reparto 19 menciones
Drive my car (Japón): Mejor película de habla no inglesa 862 menciones
“Encanto”: Mejor película animada 279 menciones
Hans Zimmer – Dune: Mejor banda sonora 12 menciones
Hacks: Mejor serie de televisión (musical o comedia) 264 menciones
Jean Smart – Hacks: Mejor actriz de TV (musical o comedia) 259 menciones
Jason Sudeikis – Ted Lasso: Mejor actor de TV (musical o comedia) 812 menciones
The Underground Railroad (“El ferrocarril subterráneo”): Mejor miniserie o película para TV 329 menciones
Michael Keaton – Dopesick: Mejor actor en miniserie o película para TV 50 menciones
Kate Winslet – Mare of Easttown: Mejor actriz en miniserie o película para TV 473 menciones
Hay mucho más por medir, no solo eventos como esta entrega de premios. Anímate a medir la reputación digital de tu marca o persona (si eres un político o influencer por ejemplo), y empieza a transitar el camino de los datos.
Quizás te interese nuestro análisis sobre Influencers y el caso de Wanda Nara. Míralo en este artículo.
Y recuerda, si te gustó este artículo, ¡compártelo! ?
Tendencias 2022 Big Data
Tendencias 2022 Big Data
Los datos y su forma de entenderlos no paran de evolucionar, las tendencias que al parecer se proyectan para este 2022 en Big Data son:
Democratización de la inteligencia artificial: tecnologías como la criptomonedas y el blockchain están popularizando cada vez más la idea de descentralización, que acabará por afectar a la manera en que se gestiona y se distribuye la IA.
La combinación de inteligencia artificial y la nube; servicios en la nube comko AWS o Google ya no son una tendencia, representan una revolución empresarial, haciendo posible que empresas de todo el mundo puedan beneficiarse, dando lugar a una nueva era en el procesamiento de datos.
Aprendizaje automático sin programación; La mayoría de los sistemas de aprendizaje automático se configuran y gestionan a través de código, pero cada vez vemos más aplicaciones que pueden utilizarse sin necesidad de programar. El aprendizaje automático sin programación permite programar aplicaciones de aprendizaje automático sin necesidad de conocimientos técnicos especializados, lo que hace posible una implementación más rápida, más sencilla y con menores costes.
Gestión de datos aumentada: El data science y la IA cambiarán nuestra manera de comprar. En los próximos años, iremos viendo cómo las experiencias de compra evolucionan. Incluyendo novedades como los asistentes virtuales o la posibilidad de visualizar los productos a través de realidad virtual.
Los sistemas conversacionales: Una de las primeras aplicaciones de la IA fueron los sistemas conversacionales. De hecho, las marcas llevan años empleando chatbots para agilizar la asistencia al cliente. Pero las nuevas tecnologías de data science ponen estos sistemas al alcance de muchas más marcas. Esto hace que sean más avanzados y humanos que nunca.
Qué es un plugin
Qué es un plugin
Cuando instalamos un programa o una aplicación, muchas de ellas te avisan de que puedes añadir un complemento (o plugin) a la misma, normalmente a través de una tienda incorporada. ¿Pero qué son y para qué nos sirven? ¿Nos podemos fiar de ellos? Todo depende de cómo los descargues y de dónde, como pasa también con las aplicaciones. Vamos a verlo.
Existen plugins para navegadores, pero también para otros programas como reproductores de audio y vídeo
El mejor ejemplo para hablar de estas extensiones son los navegadores. Son pequeños programas que permiten ampliar la función de dicho navegador y ofrecen características nuevas al usuario. Podemos utilizar una que nos permita descargar como archivo un vídeo que estemos visualizando en alguna página.
No se limitan a los navegadores web. También existen para otros programas, como reproductores de música. Por ejemplo, para reproducir ciertos DVDs y contenidos en Windows Media Player, que trae de fábrica el sistema operativo de Microsoft, es posible que se necesiten complementos que habiliten la reproducción de los archivos del disco, como estos plugins. Esto es porque el programa trae algunas opciones para reproducir archivos comunes, pero si queremos usar los que se salgan de su “abc” tendremos que instalarlos, tal y como explican en la página de soporte.
Por su parte, también existe la posibilidad de instalar complementos en sistemas de gestión de contenidos. Un ejemplo de ello es WordPress, uno de los principales software para sitios web de Internet, que permite añadir funcionalidades como insertar vídeos, mejorar la seguridad o crear un formulario de contacto.
¿Son todos y cada uno de ellos fiables? No, existen algunos que pueden secuestrar nuestra navegación o instalarnos malware en nuestro ordenador. ¿Cómo podemos evitar que nos pase esto?
Si bien no hay una manera exacta de saber si una extensión es segura o no, sí podemos seguir algunos consejos, como preferir aquellas de código abierto o software libre ya que publican su funcionamiento en abierto y, sobre todo, instalar siempre el plugin desde el repositorio oficial del navegador, evitando hacerlo desde páginas de Internet.
En el caso de Mozilla Firefox, puedes descargarlas desde la página de Complementos para Firefox, y si usas Google Chrome, desde la Chrome Web Store.
Además, tenemos que prestar atención a los permisos que nos solicitan, si se adecúan a lo que esperamos que haga la extensión, y observar su funcionamiento, si lo hace como debería o hace cosas extrañas que no se corresponden con su objetivo.