9 julio, 2021
Categoría: Eventos
El pasado 8 de julio Diario Gestión, CDO LATAM e IBM invitaron a Armand Ruiz, Director de Data Science en IBM, y Andrés Wagner, Head of Artificial Inteligence (A. I) de Banco Santander Chile, a compartir su amplia experiencia en este ámbito que está irrumpiendo en todas las esferas de nuestra vida.
Armand Ruiz esbozó una cronología de la evolución de la Inteligencia Artificial desde que se utilizaba un software que requería de programadores capacitados para crear reglas de forma manual, con el fin de poder inyectarles datos. Esta modalidad implicaba modificar las reglas a medida que los datos se incrementaban en el entorno digital, lo que hacía casi imposible tener manualmente programadas tantas reglas. De ahí que la IA utilice datos históricos y algoritmos, para crear modelos predictivos que ayudan a optimizar el proceso de gestión de datos y sistemas de producción.
Al día de hoy, refirió Armand, el mundo se encuentra en una transformación digital que se aceleró a causa del coronavirus. Por ello se afirma que en los negocios se vuelve indispensable que el 79% de las compañías aceleren su nivel de digitalización, y que el 96% de las mismas estén en una carrera pospandemia para realizar su transformación digital de 3 a 5 años aproximadamente.
Hay, sin embargo, obstáculos que salvar: Las empresas que se están modernizando poseen datos distribuidos en diversos sistemas que son de dificil acceso, también hay datos confidenciales que no se pueden usar, y otros donde su uso es muy limitado, pues el consentimiento es restringido. El 94% de empresas utilizan múltiples nubes y plataformas de datos. La paradoja es que alrededor del 90% de datos que tienen las empresas nunca son utilizados, afirmó Armand.
Como la transformación digital está alimentada por datos, la IA son los algoritmos y la tecnología que le dan valor a los mismos. Una forma de entender la complejidad es dividirlo en tres factores explicó Armand: En primer lugar, los datos, los cuales son la base de todo; en segundo lugar, la confianza, ya que el objetivo no es poner un modelo de IA en producción, si no que se trata de experimentar rápidamente para que en el futuro haya una amplia cantidad de modelos, que empiecen a tomar decisiones sin alguna interacción humana. Por lo tanto, es necesario que las empresas puedan confiar en estos modelos de inteligencia artificial y si algo va mal, poder corregirlos. Por último, están las habilidades, pues se necesita el personal calificado para hacer este tipo de proyectos, o en su defecto, herramientas y procesos ya probados.
Armand Ruiz recomienda que la transformación digital debe ser repensada, ya que no solo se trata de utilizar la tecnología para crear algoritmos y que compren productos. El cambio debe ser más radical adecuando la tecnología en los procesos, en la forma que la gente trabaja y alinearlo con los objetivos de negocio. Para aplicarlo, se debe empezar de la forma más sencilla a nivel de departamento, y a medida que se demuestra el éxito, se escala a otras áreas hasta llegar al nivel global.
Por otro lado, Andrés Wagner explicó sobre la metodología CRISP-DM, la cual consiste en el entendimiento de una problemática o la identificación de una oportunidad de negocio valiéndose de los datos para abordarlos. Refirió que la etapa donde se prepara toda la información es donde los equipos dedican la mayor parte de su esfuerzo. Hecho esto se realiza el proceso de modelamiento para evaluar si hay resultados, verificando si se está alcanzando el objetivo de negocio. Por último se encuentra la etapa del despegue, donde se pone en ejecución todo lo realizado, con el fin de saber si se está generando algún beneficio, por ejemplo, incrementando las ventas o produciendo ahorro de costos.
Andrés, cuyo ámbito profesional es el mundo bancario, asegura que se puede calibrar un modelo para predecir lo que uno desee. Puntualizó que si se tiene un buen gobierno de datos, se vuelve más competitivo, entonces la productividad de todo lo que maneja es mucho más alta.
A pregunta del público si los algoritmos que se usan en Data Mining son los mismos que se emplean en Machine Learning, y cuál era su relación, los ponentes refirieron que, históricamente, se distinguen dos tipos de modelo. Por un lado están aquellos que asemejan o buscan replicar la forma en que los seres humanos o algún ser vivo aprenden y toman decisiones. Y por otro lado se encuentran los algoritmos genéricos y otras técnicas, los cuales observan la naturaleza y realizan simplificaciones, tratando de montarlas sobre un organismo artificial, con el fin de replicar ese mismo fenómeno conduciéndolo a un buen aprendizaje. De esta forma, se logra una predicción correcta, pero se debe tener en cuenta que no todo será perfecto. Por lo tanto es fundamental tener la certeza de cómo se ha realizado una predicción para evitar problemas en el futuro.