Más allá de von Neuman: hacia una estructura inevitable unificada

Una alternativa precisa al curso de especulación-numérica y velada, y matriz de matriz
Durante más de medio siglo, la informática se basó en De Newman O modelo de Harvard. Casi cada chip moderno (unidades de procesamiento central, unidades de procesamiento de gráficos e incluso muchos aceleradores especializados) derivados de este diseño. Con el tiempo, como nuevas estructuras Una palabra de educación muy larga (VLIW), se han ofrecido procesadores de flujo de datos y GPU para procesar cuellos de botella de rendimiento específicos, pero ninguno de ellos proporcionó una alternativa integral al mismo modelo. Un nuevo enfoque llamado La implementación inevitable Desafía esta situación actual. En lugar de adivinar dinámicamente las pautas que se operan después de eso, determina cada proceso cuidadoso a nivel de curso, creando un horario predictivo para la implementación. Esto permite a un procesador unificar una cuenta numérica y de encabezado y un procesamiento de matriz ambas cargas laborales para IA general y densa sin depender de aceleradores separados.
El final de la adivinación
En la implementación dinámica, la situación de las instrucciones futuras, el envío de trabajo fuera del acuerdo y disminuyendo cuando las predicciones son incorrectas. Esto agrega complejidad, se pierde y puede mostrar brechas de seguridad. La implementación inevitable elimina por completo la especulación. Todas las instrucciones tienen una apertura de tiempo fijo y personalización de recursos, lo que garantiza que se emitan exactamente en el curso correcto. El mecanismo detrás de esto es la matriz de recursos de tiempo: un marco de programación que regula los recursos de la cuenta, la memoria y el control sobre el tiempo. Es muy similar a las operaciones del cronograma de trenes, y las operaciones de órbita y matriz se mueven a través de un tejido de cuenta simultánea sin tuberías o puestos de disputas.
¿Por qué se preocupa el Instituto de AI?
Las cargas de la obra de AI Enterprise AI empujando a los Brown a sus fronteras. Enormes unidades de procesamiento de gráficos productivos ofrecen una gran potencia y conflicto con cuellos de botella de memoria. Las unidades de procesamiento centrales proporcionan flexibilidad, pero carecen del paralelo a la razón y la capacitación moderna. Múltiples soluciones a menudo ofrecen clips de tiempo, sincronización y fragmentación de programas. En las grandes cargas laborales de inteligencia artificial, los grupos de datos no pueden ser adecuados para la caché, y el procesador debe extraerse directamente de DRAM o HBM. Puede tomar cientos de cursos, dejando a las unidades funcionales en inactividad y energía ardiente. Las tuberías tradicionales se dan a toda acreditación, lo que aumenta la brecha de rendimiento entre la productividad teórica y la entrega. La implementación inevitable aborda estos desafíos con tres formas importantes. Primero, proporciona una estructura unificada en la que la cooperación de fines públicos y la aceleración de la inteligencia artificial en un segmento, eliminando los gastos generales del cambio entre las unidades. En segundo lugar, proporciona un rendimiento predictivo a través de la implementación cuidadosa del curso, lo que lo hace ideal para que las aplicaciones sensibles continúen, como la gran conclusión de Langauge (LLM), la detección de fraude y la automatización industrial. Finalmente, reduce el consumo de energía y la huella digital física al simplificar la lógica de control, lo que a su vez se traduce en un área más pequeña que muere y bajo uso de energía. Exactamente predecir cuándo llegarán los datos, ya sea en 10 cursos o 200, la implementación inevitable puede ser una instrucción que depende de la apertura en el curso futuro correcto. Esto transforma el tiempo de llegada del peligro a un evento que se puede programar, lo que hace que las unidades de implementación se usen completamente y eviten el enorme hilo y los gastos generales de aislamiento utilizados por las unidades de procesamiento de gráficos o los chips VLIW personalizados. En los trabajos del trabajo diseñado, este diseño uniforme proporciona una productividad igual que los dispositivos aceleradores rápidos mientras operan el código de propósito general, lo que permite un procesador de roles generalmente dividido entre la CPU y la unidad de procesamiento de gráficos. En cuanto a los equipos de publicación de LLM, esto significa que los servidores de inferencia se pueden atrapar con garantías de rendimiento exactas. Para los administradores de infraestructura de datos, proporciona un objetivo para un conjunto de cuentas desde dispositivos de borde hasta estantes en la nube sin reescribir los programas principales.
Una comparación entre la estructura tradicional de iPhone Neuman y la implementación inevitable unificada. La imagen creada por el autor.
Innovaciones arquitectónicas principales
La implementación inevitable se lleva a cabo en muchas técnicas de empoderamiento. Recursos de tiempo Matrix publica recursos de cuenta y memoria en aberturas de tiempo fijos. Los registros Phantom permiten después de los límites del archivo de registro de material. Los almacenes temporales de vectores y registros de vectores ampliados permiten expandir el alcance del tratamiento paralelo de la inteligencia artificial. Instrucciones para reiniciar almacenes temporales que administran los eventos cambiantes para el aire acondicionado, sin depender de la especulación. PAR DE REGISTRO DOBLE EN CAPACIEDAD DE ARQUITECTURA DE DOBLE DE LECTURA SIN EL CASTO PARA MÁS PUERTOS. Menú de espera directa DRAM a un cargador/tienda En la tienda, la memoria alcanza la capacidad de acceder a múltiples almacenes SRAM que cortan el espacio de silicona, el costo y la energía. En el núcleo del modelado de AI y DSP, los diseños tradicionales hacen una carga, esperan un retorno y luego continúan, causando toda la inactividad de la tubería. Las inevitables tuberías de implementación y cuentas aprobadas en paralelo se cargan, lo que permite que el mismo episodio funcione sin interrupción y reduzca tanto el tiempo de implementación como los julios para cada proceso. Juntas, estas innovaciones crean un motor aritmético que combina la elasticidad de la CPU con la productividad continua de la prisa, sin la necesidad de chips separados.
Los efectos de la dimensión de inteligencia artificial
Si bien las cargas de trabajo de inteligencia artificial son un claro beneficiario, la implementación inevitable tiene amplios impactos en otras áreas. Los sistemas críticos de seguridad como los de los automóviles, el espacio y el espacio pueden beneficiarse de las inevitables garantías de tiempo. Los sistemas de análisis de tiempo reales en financiamiento y procesos se ganan la capacidad de trabajar sin temblores. Las plataformas de computación de borde pueden funcionar, ya que todos los problemas de energía pueden funcionar de manera más eficiente. Al eliminar la adivinación y la aplicación del tiempo esperado, los sistemas basados en este enfoque se vuelven más fáciles de verificar, más seguros y más eficientes en energía.
El efecto de la institución
Para las instituciones que difunden la inteligencia artificial, la eficiencia arquitectónica se traduce directamente en una ventaja competitiva. La implementación imparcial y sin comino simplifica la planificación de la planificación de los grupos de inferencia de LLM, asegurando tiempos de respuesta consistentes incluso bajo cargas máximas. Bajo consumo de energía y reducir los gastos para operar la huella digital de silicio reducida, especialmente en grandes centros de datos donde los costos de enfriamiento y energía dominan los presupuestos. En entornos de borde, la capacidad de ejecutar las diversas cargas laborales reduce una porción de dispositivos SKU, acorta los horarios y reduce la complejidad del mantenimiento.
Un camino a seguir para la informática de la institución
La transición a la implementación inevitable no solo está relacionada con el rendimiento sin procesar; Representa un retorno a la simplicidad arquitectónica, ya que puede servir a un segmento de múltiples roles sin compromiso. Dado que la inteligencia artificial impregna cada sector, desde la fabricación hasta la ciberseguridad, la capacidad de operar las diversas cargas laborales esperadas en una estructura será una ventaja estratégica. Las bases que establecen infraestructura durante los cinco años hasta los próximos diez años deben ver este desarrollo de cerca. La implementación inevitable tiene la capacidad de reducir la complejidad de los dispositivos, reducir los costos de energía y simplificar la propagación del software, con la habilitación de un rendimiento consistente a través de una amplia gama de aplicaciones.
Thang Minh Tran es un arquitecto pequeño e inventor de más de 180 patentes en la CPU y el diseño rápido.