Oltre NVIDIA: i server di Red Hat AI accelerano l'inferenza coi chip AI AWS Inferentia2 e AWS Trainium3 di AWS
La collaborazione tra Red Hat e Amazon Web Services rende possibile un'inferenza IA più efficiente grazie al supporto di Red Hat AI Inference Server su chip proprietari AWS. L'integrazione con OpenShift e Ansible, il contributo a vLLM e llm-d e la spinta alla community open source delineano un percorso per ridurre costi e latenza nei carichi di lavoro di IA