THEPOWERGAME
Η Nvidia παρουσίασε τη Δευτέρα το H200, μια υπερσύγχρονη μονάδα επεξεργασίας γραφικών σχεδιασμένη για την εκπαίδευση και την ανάπτυξη των μοντέλων τεχνητής νοημοσύνης (ΑΙ). Ο επεξεργαστής H200 περιλαμβάνει 141 GB μνήμης επόμενης γενιάς «HBM3», η οποία επιτρέπει την παραγωγή κειμένου, εικόνων και προβλέψεων με τη χρήση μοντέλων AI. Πρόκειται για αναβάθμιση του προηγούμενου μοντέλου, H100, του τσιπ που χρησιμοποίησε η OpenAI για να εκπαιδεύσει το GPT4, το πιο εξελιγμένο μοντέλο «μεγάλης γλώσσας».
Το ενδιαφέρον για τις GPUs της Nvidia έχουν εκτοξεύσει τα κέρδη της εταιρείας, με τις πωλήσεις να σημειώνουν άλμα 170% το τρέχον τρίμηνο. Από τις αρχές του 2023 η τιμή της μετοχής έχει αυξηθεί κατά 230%. Για το τρίτο οικονομικό τρίμηνο η Nvidia αναμένει έσοδα περίπου 16 δισ. δολάρια. Τα τσιπ H100 ξεκινούν από 25.000 δολάρια και φθάνουν έως και τις 40.000 δολάρια στην αγορά επεξεργαστών για γλωσσικά μοντέλα τεχνητής νοημοσύνης.
Όπως μετέδωσε το CNBC, η Nvidia έχει ανακοινώσει ότι ο επεξεργαστής H200 θα παράγει αποτελέσματα σχεδόν δύο φορές πιο γρήγορα από τον H100. Το τσιπ H200, το οποίο αναμένεται να παραδοθεί το δεύτερο τρίμηνο του 2024, ανταγωνίζεται το GPU MI300X της AMD. Ο επεξεργαστής της AMD, παρόμοιος με τον H200, διαθέτει πρόσθετη μνήμη σε σχέση με τα προηγούμενα τσιπ, η οποία βοηθά στην ευκολότερη προσαρμογή ακόμα μεγαλύτερων γλωσσικών μοντέλων σε πρόσθετα και πιο σύνθετα δεδομένα (κείμενα, εικόνες).