La pandemia de COVID-19 destacó la importancia de la inteligencia artificial y el aprendizaje automático (ML) para las organizaciones, en particular como una herramienta que puede acelerar la toma de decisiones, aumentar la eficiencia del flujo de trabajo y, en última instancia, aumentar la escala comercial en tiempos inciertos y sin precedentes.
Sin embargo, si bien la pandemia ciertamente ha acelerado la necesidad de inteligencia artificial, hemos sido testigos de este impulso durante algún tiempo en el mundo impulsado por la inteligencia artificial. Una de las principales tendencias detrás de esto ha sido la proliferación de sensores (teléfonos con cámara, cámaras de automóviles, sensores genómicos o instrumentos de grabación de sonido), de hecho, todo lo que es percibido por el mundo natural.
Sin embargo, hasta ahora, las computadoras en su mayoría solo podían trabajar con información creada por el hombre (números y textos), pero a medida que aumentaba la cantidad de datos en este mundo natural, también aumentaba la necesidad de una solución que pudiera tener sentido. – y en una escala. Ya sea que reconozca una señal de alto o un peatón para un vehículo autónomo, una herramienta que pueda rastrear y predecir la propagación de enfermedades o usar grandes cantidades de datos para el próximo avance en las ciencias de la vida, la IA es la solución.
Pero a medida que crece la necesidad de inteligencia artificial mejorada, su desarrollo a menudo enfrenta obstáculos que pueden obstaculizar su potencial: problemas centrados en la simplicidad de la infraestructura, la velocidad y el costo. Al tomarse el tiempo para repensar y revisar el almacenamiento de datos, el centro de datos e incluso la función de los propios chips, las organizaciones pueden actualizar su infraestructura y potenciar la próxima generación de IA.
Modernización del almacenamiento
No es ningún secreto que la clave para desarrollar una IA fuerte y Los algoritmos de ML son un buen conjunto de datos, pero también son la razón principal por la que el desarrollo de IA se retrasa en muchas organizaciones. El acceso en tiempo real a los datos está limitado por modelos de infraestructura arcaica.
Esto se basa en el almacenamiento, en particular los modelos tradicionales de varios niveles, que asignan diferentes conjuntos de datos a medios de almacenamiento más lentos. La razón de esto fue en gran parte el costo: Almacenar todos sus datos en una memoria flash rápida y de fácil acceso es teóricamente excelente, pero ha sido un medio costoso durante décadas. Esto significa que grandes cantidades de datos a menudo se almacenan en discos duros más baratos como alternativa, pero esto hace que el acceso en tiempo real sea imposible, lo cual es de gran valor para la IA y el aprendizaje automático.
Como resultado, gran parte del desarrollo de la IA hasta la fecha se ha basado en conjuntos de datos limitados, lo que restringe el potencial y la eficacia de las soluciones que se utilizan en la actualidad. De hecho, la IA avanzada necesita más acceso a datos en tiempo real para satisfacer las necesidades actuales.
Es importante tener todos los datos en una ubicación centralizada. Si una organización tiene un almacén de datos con una visión diferente de los datos naturales que forman parte de él, nunca obtendrá el valor total de la IA. La organización debe vincular los datos naturales del mundo exterior con lo que existe en el centro de datos; no pueden mirar la IA a través del prisma de diferentes islas. Las piezas deben ensamblarse para volverse más inteligentes y valiosas. El nivel de almacenamiento simplemente no ofrece una forma holística de hacerlo.
Gracias a innovaciones y nuevas tecnologías como aquí almacenamiento rápido de memoria no volátil (NVMe) a través de tejidosnuevo tecnología de memoria no volátil y barato elemento de cuatro niveles (QLC), el almacenamiento flash se está convirtiendo en una solución más viable y asequible para el mundo actual, donde hay una gran cantidad de datos. Por lo tanto, las organizaciones deben reconsiderar la idea del almacenamiento desde cero, reconociendo que la propuesta de valor de los discos duros y el almacenamiento flash no es lo que era hace diez años, y que simplemente adherirse al statu quo puede no ser la mejor manera.
Esto debe verse a través del prisma de lo que finalmente permitirá que las aplicaciones de IA consoliden la infraestructura y aceleren el aprendizaje y la derivación de algoritmos. Las organizaciones necesitan tener todos los datos que necesitan, rápidamente, para aumentar la eficiencia, la velocidad y el costo.
Modernización de centros de datos
Además de repensar el repositorio en sí, las organizaciones deben analizar de manera más amplia cómo se debe actualizar el centro de datos en general. Para abordar las barreras a las desigualdades de infraestructura, el centro de datos se ha vuelto extremadamente hiperconvergente a lo largo de los años, combinando recursos históricamente separados, como computación, almacenamiento y redes.
Sin embargo, esta hiperconvergencia también crea nuevas barreras para las organizaciones.. los Las diversas tecnologías que se han incluido en el centro de datos en general aportan una gran sencillez, pero el rendimiento individual de estos elementos se ha visto afectado por este estado hiperconvergente y simplemente masificado.
Invertir en programas de contenedores ofrece a las organizaciones las herramientas necesarias en una sola caja, pero con la flexibilidad de elegir los servicios que funcionan mejor para ellos de diferentes proveedores. Al reconocer que los contenedores son tan livianos, las organizaciones pueden implementar una gran cantidad de contenedores para realizar tareas o subtareas muy específicas utilizando plataformas de orquestación de contenedores modernas que respaldan la administración de la implementación y el escalado de estos esfuerzos. Esto permite la hiperconvergencia del centro de datos, pero sin perder el rendimiento necesario para promover aplicaciones como la IA.
Omisión de CPU
Finalmente, como industria se vuelve escéptico sobre la realidad Ley de Moore avanzando: la idea de que el poder de cómputo en chips y CPU tradicionales (CP) se duplicará cada dos años: crece la incertidumbre sobre cómo satisfacer las necesidades del futuro. Los transistores simplemente no pueden volverse mucho más pequeños y aumentar de tamaño tal como están.
Por lo tanto, las organizaciones deberán identificar formas de eludir los procesadores tradicionales que crean cuellos de botella, al igual que los peajes de las autopistas afectan el tráfico. De hecho, otras soluciones como unidades de procesamiento gráfico (procesadores gráficos), procesadores inteligentes (MES) y unidades de procesamiento de datos (DPU) ya se utilizan cada vez más para la IA como alternativa.
Aunque solo el tiempo dirá adónde irá esto y cuál es el mejor camino a seguir, está claro que el futuro de la inteligencia artificial mejorada se basará en evitar la ralentización que provocan estas cabinas de peaje mediante el rediseño o eludir por completo la arquitectura de la CPU.
Haciendo avanzar la IA
La IA sigue siendo un objetivo en movimiento y seguirá creciendo rápidamente. Pero no importa a dónde vaya la industria en los próximos años, cuanta más información podamos poner en nuestra infraestructura de una manera simple, rápida y accesible, mejor será la IA y el ML.
Las organizaciones que realicen las inversiones adecuadas en estas consideraciones de infraestructura sentarán las bases para los mejores vehículos autónomos de su clase, resolverán los problemas más complejos de nuestra vida y crearán nuevas soluciones innovadoras que ni siquiera imaginamos.