• Regístrate
Estás leyendo: ¿Por qué hablar del aprendizaje automático?
Comparte esta noticia
Jueves , 19.07.2018 / 10:37 Hoy

Universidad Politécnica de Tulancingo

¿Por qué hablar del aprendizaje automático?

Varios autores

Publicidad
Publicidad

Actualmente muchas de las aplicaciones que utilizamos de forma cotidiana cuentan con técnicas computacionales para dotar de comportamientos inteligentes a los programas de computadora, algunos ejemplos podrían ser la identificación de rostros y etiquetado automático que nuestra red social realiza cada vez que “subimos” una fotografía y en la que la red social nos sorprende “sabiendo” quienes son nuestros amigos, otro ejemplo de estas técnicas es cuando la hacemos de control remoto de nuestro videojuego que por medio de una cámara interpreta los movimientos del usuario y los refleja dentro de la pantalla.

Otros ejemplos son: la publicidad que las redes sociales despliegan a los usuarios en la que parecen saber cuáles son las tendencias de compra de cada quien, incluso antes de que lo sepamos, las recomendaciones de películas o música que realiza nuestro servicio de streaming, incluso en algunos casos, estas técnicas computacionales se utilizan para salvar vidas, se usan en el espacio y en muchos otros ámbitos de nuestra vida diaria y en el mundo real.

Pero ¿por qué hablar del aprendizaje automático?, bien… sencillamente porque podrían ser el futuro de la computación. Al día de hoy conceptos como la Nube (Cloud), Big Data, Internet de las Cosas (IoT), Petabytes, Exabytes [3] son de uso común en muchos ámbitos y es que los datos están en todas partes, vivimos en el siglo XXI y a donde vayamos hay datos, desde los pronósticos del tiempo que recibimos, los mensajes de texto que enviamos, cuando nos desplazamos por la ciudad y nuestro celular cambia de antenas para tener mejor recepción vamos dejando datos del nuestra ubicación por medio del GPS, y de esa forma, de manera consciente o no vamos dejando constantemente datos en muchas partes. Esa es la realidad en la que vivimos y los datos se van acumulando de una forma exponencial.

Se podría decir que desde el inicio de los tiempos y aproximadamente hasta el año 2005 los humanos han creado 130 exabytes de datos, para facilitar la comprensión imaginemos que la letra A utiliza un byte de datos, si la tenemos mil veces entonces tenemos mil letras, lo que representa una página en un libro pequeño y eso puede almacenarse en un Kilobyte, si lo sumamos mil veces (considerando por simplicidad que 1000 en lugar de 1024), entonces tenemos aproximadamente un megabyte lo que representa un libro de 500 páginas impresas de ambos lados.

Por lo anterior, si lo sumamos otras mil veces entonces tenemos aproximadamente un gigabyte, en dicha capacidad pudiese almacenarse el genoma humano (de hecho, se requiere una capacidad de 750 MB para almacenar el código genético de un ser humano) [2], si lo sumamos otras mil veces entonces llegamos a un terabyte, si nuevamente lo sumamos mil veces entonces tendríamos un petabyte y si lo sumamos otras mil veces entonces tendríamos un exabyte (1024 petabytes). En los 130 exabytes creados por la humanidad hasta el 2005 se contarían todos los libros creados, todas las canciones, las palabras que la humanidad ha hablado. Para el 2010, los humanos habrían creado ya 1,200 exabytes, en tan sólo 5 años hubo un gran incremento de datos generados. Para el 2015 se estima que se habían creado 7,900 exabytes y se estima que para el 2020 se producirán 40,900 exabytes. [1]

La cantidad de datos que generamos es impresionante así como el crecimiento exponencial con el que éstos se generan; pero el verdadero reto es la forma en la que se podrían procesar esta cantidad de datos, extrae información útil y aplicable, es allí donde el Aprendizaje Máquina y los Científicos de los Datos (Data Scientists) entran en escena para explotar el potencial que se encuentra presente en ese universo de datos.

El aprendizaje máquina es parte de los enfoques de la inteligencia artificial, asignatura que forma parte de la curricula de los Ingenieros en Sistemas Computacionales de Universidad Politécnica de Tulancingo que está siempre a la vanguardia y que actualiza sus programas de estudio constantemente ante el ritmo vertiginoso de los avances del mundo tecnológico.

.................


[1] Estudio del Universo Digital de EMC, https://www.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-2020.pdf

[2] Cuanta información es almacenada en un Genoma Humano, https://bitesizebio.com/8378/how-much-information-is-stored-in-the-human-genome/

[3] ¿Qué es un byte?, http://whatsabyte.com/

M.C.C. URIEL EDGARDO ESCOBAR FRANCO
Profesor de Tiempo Completo de la Universidad Politécnica de Tulancingo
uriel.escobar@upt.edu.mx

Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.