MADRID, 22 (Portaltic/EP)
PUBLICIDAD
La compañía ha dado a conocer estas nuevas herramientas en el marco de su conferencia anual de desarrolladores GPU Technology Conference (GTC), celebrada este martes en Las Vegas (Estados Unidos) y que se ha centrado principalmente en esta tecnología.
PUBLICIDAD
Una de las novedades destacadas es la llamada Nvidia AI Foundations, un conjunto de servicios en la nube que promueven la IA generativa a nivel empresarial y permiten la personalización en casos de uso en áreas como texto, contenido visual y biología.
El primero de ellos, Nvidia NeMo, permite a los desarrolladores hacer que los modelos de lenguaje grandes (LLM) --que van de los 8.000 millones de variables hasta las 530.000-- sean más relevantes para las empresas al definir áreas de enfoque o mostrar habilidades funcionales.
Utilizando NeMo, las empresas podrán personalizar modelos para impulsar aplicaciones de IA generativas precisas para búsquedas, 'chatbots' y servicios al cliente, tal y como ha mencionado en un comunicado.
Nvidia Picasso es otra de las herramientas integradas en Nvidia AI Foundations, que se presenta como un servicio en la nube para crear e implementar aplicaciones generativas de imagen, vídeo y 3D impulsadas por IA con capacidad de conversión avanzada de texto a imagen y texto a vídeo.
Nvidia ha comentado que los desarrolladores ya pueden solicitar el acceso anticipado al servicio en la nube de IA generativa Nvidia NeMo y que Picasso se encuentra aún en sus primeras fases de desarrollo, con una versión preliminar privada.
Por último, en el marco de las Nvidia AI Foundatiosn se encuentra la BioNeMo, un servicio en la nube para IA generativa que permite a los investigadores utilizar modelos generativos de IA para generar estructuras de biomoléculas y acelerar la creación de nuevos fármacos.
NVIDIA DGX CLOUD
En el marco de la GTC, la marca también ha anunciado Nvidia DGX Cloud, un servicio de supercomputación de IA que brinda a las empresas acceso inmediato a la infraestructura y el 'software' necesarios para entrenar modelos avanzados de IA generativa.
Los clientes pueden acceder a esta supercomputadora desde un navegador web y consolidar sus recursos a través de la infraestuctura local para ofrecer una nube híbrida que aproveche el 'software' de capacitación para empresas y desarrolladores Base Command Platform.
La compañía ha adelantado que se está asociando con los principales proveedores de servicios en la nube para alojar la infraestructura DGX Cloud y que la primera en implementarlo ha sido Oracle Cloud Infrastructure (OCI).
Asimismo, se espera que el próximo trimestre Microsoft Azure comienze a alojar DGC y se expanda "a Google Cloud y más", según ha matizado la compañía tecnológica, que ha indicado que cada instancia de DGX Cloud cuenta con ocho FPU Nvidia H100 o A100 de 80GB Tensor Core para un total de 640GB de memoria GPU por nodo.