Proceso de un análisis de datos con capa de IA

Cuando dentro del campo de la inteligencia artificial se desarrolla un aplicativo o solución para el análisis de cualquier tipo de datos con una capa de IA la mayoría se piensa que el gran grueso del proceso se encuentra en la “programación” del sistema, en el modelado o, incluso, en el entrenado del sistema y la realidad es muy distinta.

Cierto es que “programar” nuestro sistema de inteligencia artificial para que lleve a cabo una determinada predicción y entrenarlo es una tarea esencial en todo el proceso de un proyecto de análisis de datos mediante inteligencia artificial en general o machine learning como una parte de ésta, pero cierto resulta también que si tuviésemos que decir porcentajes, deberíamos decir que esta parte tan sólo se llevaría -como máximo- el 20% de todo el ciclo del proyecto.

Planificar adecuadamente para optimizar el desarrollo de un proyecto

Entonces, si en el “programar” a nuestra inteligencia artificial no se encuentra el meollo de la cuestión ni, en gran manera, tampoco se encuentra en entrenarla, ¿dónde se encuentra el gran grueso del trabajo que deberemos desarrollar en el proyecto?

A la pregunta anterior responderemos en las siguientes líneas y tener esto presente puede ayudar a muchas empresas a lograr un importante ahorro en tiempo y en todo tipo de recursos pues focalizarán sus esfuerzos y recursos en la dirección adecuada.

Las distintas fases de un proceso de análisis de datos

Todo proyecto que desee llevarse a cabo debe empezar inexcusablemente por una primera fase en la cual se responda a preguntas tan clave como aquello qué se pretende lograr con el análisis de datos que pretenda llevarse a cabo.

Por supuesto, esta fase deberá ir precedida de una buena comprensión del negocio para el cual se desea desarrollar e implementar la solución, pues de nada servirá disponer de la mejor solución de análisis de datos con inteligencia artificial del mercado si dicha solución no da respuesta a las necesidades reales del negocio en concreto.

La segunda fase, y quizás una de las más cruciales, se encuentra en el proceso de obtención de datos. La obtención de datos, una cuestión que a simple vista puede parecer baladí, es la clave de casi todo pues nunca existirá una buena analítica de datos sin datos que analizar y la verdad es que obtener datos y que esos datos sean aptos y de calidad no siempre es fácil, ni mucho menos.

Es en la tercera fase dónde nos encontramos con el auténtico epicentro del proceso. Ya sabemos para que queremos desarrollar el proyecto y las características particulares de para quién lo vamos a desarrollar. Ya hemos obtenido también los datos pero, ¿esos datos ya están realmente preparados para ser “trabajados”? La respuesta es un rotundo no y es entonces donde entramos en la “limpieza de datos”, una fase de limpieza de datos que nos deberá llevar a eliminar las inconsistencias que en ellos se encuentren y demás actuaciones que nos permitan luego obtener resultados no erróneos o corrompidos de algún modo.

Con los datos ya “limpiados” entonces entraremos en la fase de su exploración mediante la creación de la hipótesis sobre el problema o cuestión que se pretenda tratar. Y es entonces y sólo entonces cuando entraremos en las fases de modelado y entrenamiento de los modelos con machine learning y donde deberemos realizar la evaluación de sus resultados y de la precisión de sus predicciones.

Cuando hayamos realizado todo lo anterior ya tendremos todo lo que necesitamos para poder decir que nuestro proyecto de análisis de datos está completo, pero, ¿ya está todo listo? Nuevamente la respuesta a esta pregunta es un rotundo no.

La respuesta a la pregunta que se planteaba es un rotundo no pues de nada servirá haber obtenido todos esos datos si posteriormente no los interpretamos y los hacemos visibles -y entendibles- a los ojos de las personas que deben interpretarlos, y la respuesta también es un rotundo no.

Y es que, normalmente, nunca estará todo listo del todo pues la mayoría de los sistemas serán sistemas vivos que deberán actualizarse, reentrenarse y reevaluarse constantemente para que sus buenos resultados de hoy no pasen a ser predicciones inservibles mañana.

Puedes encontrarme en: jordigarcia.eu y tecch.eu

Acerca de Jordi G. Castillón

Técnico en Ciberseguridad, IA, análisis de datos y Compliance legal. Escribo. Enamorado de mis perros y apasionado por los viajes y por la fotografía.
Esta entrada fue publicada en Sin categoría y etiquetada , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s