Android

Nvidia 【όλες τις πληροφορίες】

Πίνακας περιεχομένων:

Anonim

Η Nvidia Corporation, πιο γνωστή ως Nvidia, είναι μια αμερικανική εταιρεία τεχνολογίας που έχει συσταθεί στο Delaware και έχει έδρα τη Σάντα Κλάρα, Καλιφόρνια. Η Nvidia σχεδιάζει μονάδες επεξεργασίας γραφικών για τα βιντεοπαιχνίδια και τις επαγγελματικές αγορές, καθώς και ένα σύστημα μονάδων chip (SoC) για την αυτοκινητοβιομηχανία και την αγορά κινητών υπολογιστών. Η βασική της σειρά προϊόντων, η GeForce, βρίσκεται σε άμεσο ανταγωνισμό με τα προϊόντα Radeon της AMD.

Συνιστούμε να διαβάσετε τους καλύτερους οδηγούς υλικού και οδηγών για PC:

Εκτός από την κατασκευή μονάδων GPU, η Nvidia παρέχει δυνατότητες παράλληλης επεξεργασίας παγκοσμίως σε ερευνητές και επιστήμονες, επιτρέποντάς τους να εκτελούν αποτελεσματικά εφαρμογές υψηλής απόδοσης. Πιο πρόσφατα, έχει μεταφερθεί στην αγορά υπολογιστών για κινητά, όπου παράγει επεξεργαστές Tegra για φορητές κονσόλες βιντεοπαιχνιδιών, δισκία και αυτόνομα συστήματα πλοήγησης και ψυχαγωγίας οχημάτων. Αυτό οδήγησε στη Nvidia να γίνει εταιρεία που επικεντρώνεται σε τέσσερις αγορές από το 2014 : παιχνίδια, επαγγελματική απεικόνιση, κέντρα δεδομένων, τεχνητή νοημοσύνη και αυτοκίνητα.

Ευρετήριο περιεχομένων

Ιστορία της Nvidia

Η Nvidia ιδρύθηκε το 1993 από τον Jen-Hsun Huang, τον Chris Malachowsky και τον Curtis Priem. Οι τρεις συνιδρυτές της εταιρείας υποθέτουν ότι η σωστή κατεύθυνση για τον υπολογισμό θα περάσει από επεξεργασία με επιτάχυνση γραφικών, πιστεύοντας ότι αυτό το υπολογιστικό μοντέλο θα μπορούσε να λύσει προβλήματα που οι υπολογισμοί γενικού σκοπού δεν μπορούσαν να λύσουν. Σημείωσαν επίσης ότι τα βιντεοπαιχνίδια είναι μερικά από τα πιο υπολογιστικά προκλητικά ζητήματα και ότι έχουν απίστευτα υψηλό όγκο πωλήσεων.

Από μια μικρή εταιρεία βιντεοπαιχνιδιών σε έναν γίγαντα τεχνητής νοημοσύνης

Η εταιρεία γεννήθηκε με αρχικό κεφάλαιο $ 40.000, αρχικά δεν είχε όνομα, και οι συνιδρυτές ονόμασαν όλα τα NV αρχεία της, όπως στην "επόμενη έκδοση". Η ανάγκη ενσωμάτωσης της εταιρείας προκάλεσε τους συνιδρυτές να αναθεωρήσουν όλες τις λέξεις με τα δύο αυτά γράμματα, γεγονός που τους οδήγησε σε "envy", τη λατινική λέξη που σημαίνει "φθόνο".

Η κυκλοφορία του RIVA TNT το 1998 ενδυνάμωσε τη φήμη της Nvidia για την ανάπτυξη προσαρμογέων γραφικών. Στα τέλη του 1999, η Nvidia κυκλοφόρησε το GeForce 256 (NV10), το οποίο παρουσίασε κυρίως το μετασχηματισμό και τον φωτισμό (T & L) στον τρισδιάστατο εξοπλισμό. Λειτουργώντας στα 120 MHz και διαθέτει τέσσερις γραμμές εικονοστοιχείων, υλοποίησε προηγμένη επιτάχυνση βίντεο, αντιστάθμιση κίνησης και ανάμειξη υλικού υπο-εικόνας. Η GeForce ξεπέρασε τα υπάρχοντα προϊόντα με μεγάλο περιθώριο.

Λόγω της επιτυχίας των προϊόντων της, η Nvidia κέρδισε το συμβόλαιο για την ανάπτυξη του υλικού γραφικών για την κονσόλα παιχνιδιών Xbox της Microsoft, κερδίζοντας το Nvidia για μια προκαταβολή 200 εκατομμυρίων δολαρίων. Ωστόσο, το έργο πήρε πολλούς από τους καλύτερους μηχανικούς του από άλλα έργα. Βραχυπρόθεσμα, αυτό δεν είχε σημασία και το GeForce2 GTS στάλθηκε το καλοκαίρι του 2000. Τον Δεκέμβριο του 2000, η ​​Nvidia κατέληξε σε συμφωνία για την απόκτηση των πνευματικών δικαιωμάτων του μοναδικού αντιπάλου της 3dfx, πρωτοπόρου στην τεχνολογία 3D graphics για τον καταναλωτή. ο οποίος ηγήθηκε του πεδίου από τα μέσα της δεκαετίας του 1990 έως το 2000. Η διαδικασία εξαγοράς έληξε τον Απρίλιο του 2002.

Τον Ιούλιο του 2002, η Nvidia εξαγόρασε την Exluna για ένα μη δημοσιοποιημένο ποσό χρημάτων. Η Exluna ήταν υπεύθυνη για τη δημιουργία διαφόρων εργαλείων απόδοσης λογισμικού. Αργότερα, τον Αύγουστο του 2003, η Nvidia εξαγόρασε το MediaQ για περίπου 70 εκατομμύρια δολάρια. Επιπλέον, απέκτησε iReady, προμηθευτή λύσεων υψηλών επιδόσεων TCP / IP και iSCSI offload στις 22 Απριλίου 2004.

Τόσο μεγάλη ήταν η επιτυχία της Nvidia στην αγορά των βιντεοπαιχνιδιών, που τον Δεκέμβριο του 2004 ανακοίνωσε ότι θα βοηθούσε τη Sony στη σχεδίαση του επεξεργαστή γραφικών RSX του PlayStation 3, της νέας γενιάς κονσόλας παιχνιδιών βίντεο από την ιαπωνική εταιρεία που είχε το δύσκολο έργο της επανάληψης της επιτυχίας του προκάτοχού του, της καλύτερης πώλησης στην ιστορία.

Τον Δεκέμβριο του 2006, η Nvidia έλαβε παραπομπές από το Υπουργείο Δικαιοσύνης των ΗΠΑ. Όσον αφορά τις πιθανές παραβιάσεις της αντιμονοπωλιακής νομοθεσίας στον κλάδο των καρτών γραφικών. Την εποχή εκείνη η AMD είχε γίνει ο μεγάλος ανταγωνιστής της, μετά την αγορά της ATI από την τελευταία. Από τότε η AMD και η Nvidia είναι οι μοναδικοί κατασκευαστές καρτών γραφικών για video games, χωρίς να ξεχνάμε τα ολοκληρωμένα chips της Intel.

Η Forbes ονόμασε τη Nvidia την καλύτερη εταιρεία της χρονιάς για το 2007, επικαλούμενη τα επιτεύγματα που έκανε τα τελευταία πέντε χρόνια. Στις 5 Ιανουαρίου 2007, η Nvidia ανακοίνωσε ότι ολοκλήρωσε την εξαγορά της PortalPlayer, Inc και τον Φεβρουάριο του 2008 η Nvidia εξαγόρασε την Ageia, κατασκευαστή του κινητήρα φυσικής PhysX και της μονάδας επεξεργασίας φυσικής που εκτελούσε αυτόν τον κινητήρα. Η Nvidia ανακοίνωσε ότι σχεδίαζε να ενσωματώσει την τεχνολογία PhysX στα μελλοντικά προϊόντα GeForce GPU.

Η Nvidia αντιμετώπισε μεγάλη δυσκολία τον Ιούλιο του 2008, όταν έλαβε μείωση των εσόδων περίπου 200 εκατομμυρίων δολαρίων μετά την αναφορά ότι ορισμένα κινητά chipsets και κινητές GPU που παρήγαγε η εταιρεία είχαν μη φυσιολογικά ποσοστά αποτυχίας λόγω κατασκευαστικών ελαττωμάτων. Τον Σεπτέμβριο του 2008, η Nvidia αποτέλεσε αντικείμενο αγωγής κατηγορίας από τους θιγόμενους, ισχυριζόμενος ότι τα ελαττωματικά GPU ενσωματώθηκαν σε ορισμένα μοντέλα φορητών υπολογιστών που κατασκευάζονται από την Apple, την Dell και την HP. Η σαπουνόπερα έληξε τον Σεπτέμβριο του 2010, όταν η Nvidia κατέληξε σε συμφωνία ότι οι ιδιοκτήτες των προσβεβλημένων φορητών υπολογιστών θα επιστραφούν για το κόστος των επισκευών ή, σε ορισμένες περιπτώσεις, της αντικατάστασης του προϊόντος.

Τον Νοέμβριο του 2011, η Nvidia κυκλοφόρησε το σύστημα τσιπ ARG Tegra 3 για κινητές συσκευές μετά την αρχική παρουσίασή της στο Mobile World Congress. Η Nvidia ισχυρίστηκε ότι το τσιπ χαρακτήρισε τον πρώτο τετραπύρηνο κινητό CPU. Τον Ιανουάριο του 2013, η Nvidia παρουσίασε το Tegra 4, καθώς και το Nvidia Shield, μια φορητή κονσόλα παιχνιδιών που βασίζεται στο Android που τροφοδοτείται από τον νέο επεξεργαστή.

Στις 6 Μαΐου 2016 η Nvidia παρουσίασε τις κάρτες γραφικών GeForce GTX 1080 και 1070, η πρώτη βασισμένη στη νέα μικροαρχιτεκτονική Pascal. Η Nvidia ισχυρίστηκε ότι και τα δύο μοντέλα ξεπέρασαν το μοντέλο Titan X βασισμένο σε Maxwell. Αυτές οι κάρτες ενσωματώνουν μνήμη GDDR5X και GDDR5 αντίστοιχα και χρησιμοποιούν μια διαδικασία παραγωγής 16nm. Η αρχιτεκτονική Pascal υποστηρίζει επίσης ένα νέο χαρακτηριστικό γνώρισμα υλικού γνωστό ως ταυτόχρονη πολλαπλή προβολή (SMP), το οποίο έχει σχεδιαστεί για να βελτιώσει την ποιότητα της πολλαπλής οθόνης και της εικονικής πραγματικότητας rendering. Η Pascal επέτρεψε την κατασκευή φορητών υπολογιστών που πληρούν τα πρότυπα σχεδιασμού Max-Q της Nvidia.

Τον Μάιο του 2017, η Nvidia ανακοίνωσε συνεργασία με την Toyota Motor Corp, σύμφωνα με την οποία η τελευταία θα χρησιμοποιήσει την πλατφόρμα τεχνητής νοημοσύνης της σειράς Drive X της Nvidia για τα αυτόνομα οχήματα της. Τον Ιούλιο του 2017, η Nvidia και η κινεζική γίγαντας της Baidu, Inc. ανακοίνωσαν μια ισχυρή εταιρική σχέση AI που περιλαμβάνει cloud computing, αυτόνομη οδήγηση, καταναλωτικές συσκευές και πλαίσιο AI του Baidu, PaddlePaddle.

Nvidia GeForce και Nvidia Pascal, που κυριαρχούν στο παιχνίδι

Το GeForce είναι το εμπορικό σήμα για τις κάρτες γραφικών που βασίζονται σε μονάδες επεξεργασίας γραφικών (GPU) που δημιουργήθηκαν από τη Nvidia από το 1999. Μέχρι σήμερα, η σειρά GeForce έχει γνωρίσει δεκαέξι γενεές από την έναρξή της. Οι εκδόσεις που επικεντρώνονται στους επαγγελματίες χρήστες αυτών των καρτών υπάγονται στο όνομα Quadro και περιλαμβάνουν κάποια διαφοροποιητικά χαρακτηριστικά σε επίπεδο οδηγού. Ο άμεσος ανταγωνισμός της GeForce είναι η AMD με τις κάρτες της Radeon.

Το Pascal είναι το όνομα κώδικα για την τελευταία μικροαρχιτεκτονική GPU που αναπτύχθηκε από τη Nvidia που εισήλθε στην αγορά των βιντεοπαιχνιδιών, ως διάδοχος της προηγούμενης αρχιτεκτονικής Maxwell. Η αρχιτεκτονική Pascal εισήχθη για πρώτη φορά τον Απρίλιο του 2016 με την κυκλοφορία του Tesla P100 για διακομιστές στις 5 Απριλίου 2016. Σήμερα, ο Pascal χρησιμοποιείται κυρίως στη σειρά GeForce 10, με τα GeForce GTX 1080 και GTX να είναι Οι πρώτες 1070 κάρτες βιντεοπαιχνιδιών κυκλοφόρησαν με αυτήν την αρχιτεκτονική, στις 17 Μαΐου 2016 και στις 10 Ιουνίου 2016 αντίστοιχα. Η Pascal κατασκευάζεται με τη μέθοδο FinnET των 16nm TSMC, επιτρέποντάς της να προσφέρει πολύ υψηλότερη ενεργειακή απόδοση και απόδοση σε σύγκριση με το Maxwell, το οποίο κατασκευάστηκε σε 28nm FinFET.

Η αρχιτεκτονική Pascal οργανώνεται εσωτερικά σε γνωστές λειτουργικές μονάδες πολλαπλών επεξεργαστών ( SM), που αποτελούνται από 64 πυρήνες CUDA, οι οποίοι με τη σειρά τους χωρίζονται σε δύο μονάδες επεξεργασίας 32 πυρήνων CUDA από αυτά και συνοδεύεται από μια προσωρινή μνήμη οδηγιών, έναν προγραμματιστή στημονιού, 2 μονάδες χαρτογράφησης υφής και 2 μονάδες αποστολής. Αυτοί οι δίσκοι SM είναι ισοδύναμοι με τους CUs της AMD.

Η αρχιτεκτονική Pascal της Nvidia σχεδιάστηκε για να είναι η πιο αποδοτική και προηγμένη στον κόσμο των τυχερών παιχνιδιών. Η μηχανολογική ομάδα της Nvidia έχει καταβάλει μεγάλη προσπάθεια για τη δημιουργία μιας αρχιτεκτονικής GPU που μπορεί να έχει πολύ υψηλές ταχύτητες ρολογιού, διατηρώντας ταυτόχρονα την αυστηρή κατανάλωση ενέργειας. Για να επιτευχθεί αυτό, έχει επιλεγεί ένας πολύ προσεκτικός και βελτιστοποιημένος σχεδιασμός σε όλα τα κυκλώματά του, με αποτέλεσμα ο Pascal να μπορεί να φτάσει σε συχνότητα 40% υψηλότερη από το Maxwell, ποσοστό πολύ υψηλότερο από ό, τι η διαδικασία θα είχε επιτρέψει στα 16 nm χωρίς όλες τις βελτιστοποιήσεις σε επίπεδο σχεδιασμού.

Η μνήμη είναι βασικό στοιχείο στην απόδοση μιας κάρτας γραφικών, η τεχνολογία GDDR5 ανακοινώθηκε το 2009, οπότε έχει ήδη ξεπεραστεί για τις πιο ισχυρές κάρτες γραφικών σήμερα. Αυτός είναι ο λόγος για τον οποίο η Pascal υποστηρίζει τη μνήμη GDDR5X, η οποία ήταν η ταχύτερη και πιο εξελιγμένη διεπαφή μνήμης στην ιστορία κατά τη στιγμή της εκτόξευσης αυτών των καρτών γραφικών, επιτυγχάνοντας ταχύτητες μεταφοράς μέχρι 10 Gbps ή σχεδόν 100 picoseconds μεταξύ δυαδικών ψηφίων. των δεδομένων. Η μνήμη GDDR5X επιτρέπει επίσης στην κάρτα γραφικών να καταναλώνει λιγότερη ενέργεια σε σύγκριση με το GDDR5, καθώς η τάση λειτουργίας είναι 1, 35V, σε σύγκριση με 1, 5V ή ακόμα περισσότερο από ότι χρειάζονται τα γρηγορότερα τσιπ GDDR5. Αυτή η μείωση της τάσης μεταφράζεται σε μια υψηλότερη συχνότητα λειτουργίας κατά 43% με την ίδια κατανάλωση ισχύος.

Μια άλλη σημαντική καινοτομία Pascal προέρχεται από τεχνικές συμπίεσης μνήμης χωρίς απώλεια απόδοσης, γεγονός που μειώνει τη ζήτηση για εύρος ζώνης από τη GPU. Η Pascal περιλαμβάνει την τέταρτη γενιά τεχνολογίας συμπίεσης χρωμάτων δέλτα. Με τη συμπίεση χρωμάτων δέλτα, η GPU αναλύει σκηνές για να υπολογίσει τα εικονοστοιχεία των οποίων οι πληροφορίες μπορούν να συμπιεστούν χωρίς να θυσιάζεται η ποιότητα της σκηνής. Ενώ η αρχιτεκτονική Maxwell δεν ήταν σε θέση να συμπιέσει δεδομένα που σχετίζονται με ορισμένα στοιχεία, όπως η βλάστηση και τα μέρη του αυτοκινήτου στο παιχνίδι Project Cars, ο Pascal είναι σε θέση να συμπιέσει τις περισσότερες πληροφορίες σχετικά με αυτά τα στοιχεία, Maxwell. Ως εκ τούτου, ο Pascal είναι σε θέση να μειώσει σημαντικά τον αριθμό των bytes που πρέπει να εξαχθούν από τη μνήμη. Αυτή η μείωση στα byte μεταφράζεται σε ένα επιπλέον 20% αποτελεσματικού εύρους ζώνης, με αποτέλεσμα την αύξηση κατά 1, 7 φορές του εύρους ζώνης με τη χρήση της μνήμης GDDR5X σε σύγκριση με την αρχιτεκτονική GDDR5 και Maxwell.

Ο Pascal προσφέρει επίσης σημαντικές βελτιώσεις σε σχέση με την Ασύγχρονη Πληροφορική, κάτι πολύ σημαντικό, δεδομένου ότι σήμερα ο φόρτος εργασίας είναι πολύ περίπλοκος. Χάρη σε αυτές τις βελτιώσεις, η αρχιτεκτονική Pascal είναι πιο αποδοτική στη διανομή του φορτίου μεταξύ όλων των διαφορετικών μονάδων SM, πράγμα που σημαίνει ότι δεν υπάρχουν σχεδόν καθόλου κεντρικοί πυρήνες CUDA. Αυτό επιτρέπει τη βελτιστοποίηση της GPU να είναι πολύ μεγαλύτερη, κάνοντας καλύτερη χρήση όλων των πόρων που διαθέτει.

Ο παρακάτω πίνακας συνοψίζει τα πιο σημαντικά χαρακτηριστικά όλων των καρτών GeForce που βασίζονται στο Pascal.

ΚΑΡΤΕΣ ΓΡΑΦΙΚΗΣ PASCAL ΓΡΑΦΙΚΩΝ NVIDIA GEFORCE

CUDA Cores Συχνότητες (MHz) Μνήμη Διεπαφή μνήμης Εύρος ζώνης μνήμης (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bit 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8GB GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8GB GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bit 547 250

Τεχνητή νοημοσύνη και αρχιτεκτονική του Βόλτα

Οι GPU της Nvidia χρησιμοποιούνται ευρέως στους τομείς της βαθιάς μάθησης, της τεχνητής νοημοσύνης και της επιταχυνόμενης ανάλυσης μεγάλων ποσοτήτων δεδομένων. Η εταιρεία ανέπτυξε βαθιά μάθηση βασισμένη στην τεχνολογία GPU, προκειμένου να χρησιμοποιήσει τεχνητή νοημοσύνη για να αντιμετωπίσει προβλήματα όπως ανίχνευση καρκίνου, πρόγνωση καιρού και αυτόνομα οχήματα οδήγησης, όπως το περίφημο Tesla.

Ο στόχος της Nvidia είναι να βοηθήσει τα δίκτυα να μάθουν να σκέφτονται. Οι GPU του Nvidia λειτουργούν εξαιρετικά καλά για εργασίες βαθιάς μάθησης επειδή είναι σχεδιασμένες για παράλληλη χρήση υπολογιστών και λειτουργούν καλά για να χειριστούν τις πράξεις φορέα και μήτρας που επικρατούν στη βαθιά εκμάθηση. Οι μονάδες GPU της εταιρείας χρησιμοποιούνται από ερευνητές, εργαστήρια, εταιρείες τεχνολογίας και επιχειρήσεις. Το 2009, η Nvidia συμμετείχε σε αυτό που ονομάστηκε Big Bang για βαθιά εκμάθηση, καθώς τα νευρικά δίκτυα μαζικής μάθησης συνδυάστηκαν με τις μονάδες επεξεργασίας γραφικών της εταιρείας. Την ίδια χρονιά, το Google Brain χρησιμοποίησε τις μονάδες GPU της Nvidia για τη δημιουργία βαθιών νευρωνικών δικτύων ικανών για μηχανική μάθηση, όπου ο Andrew Ng δήλωσε ότι θα μπορούσε να αυξήσει την ταχύτητα των συστημάτων βαθιάς μάθησης κατά 100 φορές.

Τον Απρίλιο του 2016, η Nvidia εισήγαγε τον υπερυπολογιστή DGX-1 με βάση το σύμπλεγμα 8-GPU για να ενισχύσει την ικανότητα των χρηστών να χρησιμοποιούν βαθιά εκμάθηση συνδυάζοντας GPU με ειδικά σχεδιασμένο λογισμικό. Η Nvidia ανέπτυξε επίσης τις εικονικές μηχανές Nvidia Tesla K80 και P100 που διατίθενται μέσω του Google Cloud, το οποίο εγκατέστησε η Google τον Νοέμβριο του 2016. Η Microsoft πρόσθεσε διακομιστές με βάση την τεχνολογία GPU της Nvidia σε μια προεπισκόπηση της σειράς N της, με βάση την κάρτα Tesla K80. Η Nvidia συνεργάζεται επίσης με την IBM για να δημιουργήσει ένα κιτ λογισμικού που αυξάνει τις δυνατότητες AI των GPU της. Το 2017, οι GPU της Nvidia μεταφέρθηκαν επίσης στο διαδίκτυο στο Κέντρο RIKEN για το Advanced Intelligence Project για το Fujitsu.

Τον Μάιο του 2018, οι ερευνητές του τμήματος τεχνητής νοημοσύνης της Nvidi α συνειδητοποίησαν ότι ένα ρομπότ θα μπορούσε να μάθει να κάνει μια δουλειά απλά παρατηρώντας το άτομο που κάνει την ίδια δουλειά. Για να επιτευχθεί αυτό, έχουν δημιουργήσει ένα σύστημα το οποίο, μετά από μια σύντομη ανασκόπηση και δοκιμή, μπορεί πλέον να χρησιμοποιηθεί για τον έλεγχο των γενικών ρομπότ γενιάς επόμενης γενιάς.

Το Volta είναι το κωδικό όνομα για την πιο προηγμένη μικροαρχιτεκτονική GPU που αναπτύχθηκε από τη Nvidia, είναι η διαδοχική αρχιτεκτονική του Pascal και ανακοινώθηκε ως μέρος μιας μελλοντικής φιλοδοξίας του οδικού χάρτη τον Μάρτιο του 2013. Η αρχιτεκτονική πήρε το όνομά της από τον Alessandro Volta, ο φυσικός, ο χημικός και ο εφευρέτης της ηλεκτρικής μπαταρίας. Η αρχιτεκτονική Volta δεν έχει φτάσει στον τομέα των τυχερών παιχνιδιών, παρόλο που το έκανε με την κάρτα γραφικών Nvidia Titan V, η οποία επικεντρώνεται στον καταναλωτικό τομέα και μπορεί να χρησιμοποιηθεί και σε εξοπλισμό τυχερών παιχνιδιών.

Αυτό το Nvidia Titan V είναι μια κάρτα γραφικών βασισμένη σε πυρήνα GV100 και τρεις στοίβες μνήμης HBM2, όλα σε ένα πακέτο. Η κάρτα έχει συνολικά 12 GB μνήμης HBM2 που λειτουργεί μέσω διεπαφής μνήμης 3072-bit. Η GPU της περιλαμβάνει πάνω από 21 εκατομμύρια τρανζίστορ, 5, 120 πυρήνες CUDA και 640 πυρήνες Tensor για την απόδοση 110 TeraFLOPS σε βαθιά εκμάθηση. Οι συχνότητες λειτουργίας της είναι 1200 MHz και 1455 MHz σε λειτουργία turbo, ενώ η μνήμη λειτουργεί στα 850 MHz, προσφέροντας εύρος ζώνης 652, 8 GB / s. Έχει πρόσφατα ανακοινωθεί μια έκδοση CEO Edition που αυξάνει τη μνήμη μέχρι 32GB.

Η πρώτη κάρτα γραφικών που κατασκευάστηκε από τη Nvidia με την αρχιτεκτονική Volta ήταν το Tesla V100, το οποίο αποτελεί μέρος του συστήματος Nvidia DGX-1. Το Tesla V100 χρησιμοποιεί τον πυρήνα GV100 που κυκλοφόρησε στις 21 Ιουνίου 2017. Η GPU Volta GV100 είναι χτισμένη σε μια διεργασία παραγωγής FinFET 12nm , με 32GB μνήμης HBM2 ικανή να παρέχει έως και 900GB / s εύρους ζώνης.

Το Volta φέρνει επίσης στη ζωή το τελευταίο Nvidia Tegra SoC, το οποίο αποκαλείται Xavier, το οποίο ανακοινώθηκε στις 28 Σεπτεμβρίου 2016. Ο Xavier περιέχει 7 δισεκατομμύρια τρανζίστορ και 8 προσαρμοσμένους πυρήνες ARMv8 μαζί με GPU Volta με 512 πυρήνες CUDA και TPU ανοιχτού κώδικα (Μονάδα επεξεργασίας Tensor) που ονομάζεται DLA (Deep Learning Accelerator). Η Xavier μπορεί να κωδικοποιήσει και να αποκωδικοποιήσει βίντεο σε ανάλυση 8K Ultra HD (7680 × 4320 pixels) σε πραγματικό χρόνο, όλα με TDP 20-30 watts και μέγεθος καλουπιού εκτιμώμενο σε περίπου 300mm2 χάρη στη διαδικασία κατασκευής 12. nm FinFET.

Η αρχιτεκτονική Volta χαρακτηρίζεται από την πρώτη που περιλαμβάνει τον Tensor Core, πυρήνες ειδικά σχεδιασμένους για να προσφέρουν πολύ καλύτερες επιδόσεις σε βαθιά μαθησιακά καθήκοντα σε σύγκριση με τους κανονικούς πυρήνες CUDA. Ένας πυρήνας Tensor είναι μια μονάδα που πολλαπλασιάζει δύο μήτρες FP16 4 × 4 και στη συνέχεια προσθέτει ένα τρίτο πλέγμα FP16 ή FP32 στο αποτέλεσμα, χρησιμοποιώντας συγχωνευμένες λειτουργίες προσθήκης και πολλαπλασιασμού, επιτυγχάνοντας ένα αποτέλεσμα FP32 που θα μπορούσε ενδεχομένως να υποβαθμιστεί σε ένα αποτέλεσμα FP16. Οι πυρήνες των τανυστήρων προορίζονται για την επιτάχυνση της κατάρτισης του νευρικού δικτύου.

Η Volta ξεχωρίζει επίσης για τη συμπερίληψη της προηγμένης ιδιόκτητης διεπαφής NVLink, η οποία είναι ένα πρωτόκολλο επικοινωνίας βασισμένο σε καλώδιο για επικοινωνίες ημιαγωγών μικρής εμβέλειας που αναπτύχθηκε από τη Nvidia, το οποίο μπορεί να χρησιμοποιηθεί για μεταφορά και έλεγχο κωδικών δεδομένων σε συστήματα επεξεργαστών που βασίζονται σε CPU και GPU και εκείνων που βασίζονται αποκλειστικά σε GPU. Η NVLink ορίζει μια σύνδεση από σημείο σε σημείο με ταχύτητες δεδομένων 20 και 25 Gb / s ανά λωρίδα δεδομένων και ανά διεύθυνση στην πρώτη και δεύτερη έκδοση. Οι συνολικοί ρυθμοί δεδομένων σε συστήματα πραγματικού κόσμου είναι 160 και 300 GB / s για το συνολικό άθροισμα των ροών δεδομένων εισόδου και εξόδου. Τα προϊόντα NVLink που εισήχθησαν μέχρι σήμερα επικεντρώνονται στον χώρο εφαρμογής υψηλής απόδοσης. Η NVLINK ανακοινώθηκε για πρώτη φορά τον Μάρτιο του 2014 και χρησιμοποιεί μια ιδιόκτητη διασύνδεση σηματοδότησης υψηλής ταχύτητας που αναπτύχθηκε και αναπτύχθηκε από τη Nvidia.

Ο παρακάτω πίνακας συνοψίζει τα πιο σημαντικά χαρακτηριστικά των καρτών που βασίζονται στο Volta:

ΓΡΑΦΙΚΕΣ ΚΑΡΤΕΣ NVIDIA VOLTA

CUDA Cores Core Tensor Συχνότητες (MHz) Μνήμη Διεπαφή μνήμης Εύρος ζώνης μνήμης (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32GB HBM2 4, 096 δυαδικά ψηφία 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3, 072 bit 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32GB HBM2 4, 096 δυαδικά ψηφία 900 250

Το μέλλον της Nvidia περνάει μέσω του Turing και του Ampere

Οι δύο μελλοντικές αρχιτεκτονικές Nvidia θα είναι Turing και Ampere σύμφωνα με όλες τις φήμες που έχουν εμφανιστεί μέχρι σήμερα, είναι πιθανό ότι όταν διαβάζετε αυτό το post, ένας από αυτούς έχει ήδη επίσημα ανακοινωθεί. Προς το παρόν, τίποτα δεν είναι γνωστό με βεβαιότητα για αυτές τις δύο αρχιτεκτονικές, αν και λέγεται ότι ο Turing θα είναι μια απλοποιημένη έκδοση της Volta για την αγορά τυχερών παιχνιδιών, στην πραγματικότητα αναμένεται να φτάσει με την ίδια διαδικασία κατασκευής στα 12 nm.

Ο Αμπερ ακούγεται σαν διάδοχος αρχιτεκτονική του Turing, παρόλο που θα μπορούσε να είναι και ο διάδοχος του Βόλτα στον τομέα της τεχνητής νοημοσύνης. Απολύτως τίποτα δεν είναι γνωστό γι 'αυτό, παρόλο που φαίνεται λογικό να αναμένεται να φτάσει κατασκευασμένο στα 7 nm. Οι φήμες υποδηλώνουν ότι η Nvidia θα ανακοινώσει τις νέες κάρτες της GeForce στο Gamecom τον επόμενο μήνα του Αυγούστου, μόνο τότε θα αφήσουμε αμφιβολίες για το τι θα γίνει το Turing ή το Ampere, αν πραγματικά προκύψουν.

NVIDIA G-Sync, τερματισμό των προβλημάτων συγχρονισμού εικόνας

Το G-Sync είναι μια ιδιόκτητη τεχνολογία προσαρμοστικού συγχρονισμού που αναπτύχθηκε από τη Nvidia, ο πρωταρχικός στόχος της οποίας είναι η εξάλειψη της διάσπασης της οθόνης και η ανάγκη εναλλακτικών λύσεων με τη μορφή λογισμικού όπως το Vsync. Το G-Sync εξαλείφει το σκίσιμο της οθόνης, αναγκάζοντάς το να προσαρμοστεί στο ρυθμό λήψης της συσκευής εξόδου, την κάρτα γραφικών, αντί να προσαρμόζει την συσκευή εξόδου στην οθόνη, με αποτέλεσμα να λυγίζει η εικόνα στην οθόνη.

Προκειμένου μια οθόνη να είναι συμβατή με το G-Sync, πρέπει να περιέχει μια ενότητα υλικού που πωλείται από τη Nvidia. Η AMD (Advanced Micro Devices) κυκλοφόρησε μια παρόμοια τεχνολογία για οθόνες, που ονομάζεται FreeSync, η οποία έχει την ίδια λειτουργία με την G-Sync αλλά δεν απαιτεί κάποιο συγκεκριμένο υλικό.

Η Nvidia δημιούργησε μια ειδική λειτουργία για να αποφευχθεί η πιθανότητα ένα νέο πλαίσιο να είναι έτοιμο κατά την εκτύπωση ενός διπλού στην οθόνη, κάτι που μπορεί να προκαλέσει καθυστέρηση και / ή τραύλισμα, η μονάδα αναμένει την ενημέρωση και περιμένει να ολοκληρωθεί το επόμενο καρέ. Η υπερφόρτωση των pixel γίνεται επίσης παραπλανητική σε ένα σενάριο μη σταθερής ενημέρωσης και οι λύσεις προβλέπουν πότε θα λάβει χώρα η επόμενη ενημέρωση, επομένως η τιμή overdrive πρέπει να εφαρμοστεί και να ρυθμιστεί για κάθε πίνακα, προκειμένου να αποφευχθεί η εμφάνιση φαινομένων.

Η ενότητα βασίζεται σε FPGA οικογένειας Altera Arria V GX με λογικά στοιχεία 156K, 396 μπλοκ DSP και 67 κανάλια LVDS. Παράγεται στη διαδικασία TSMC 28LP και συνδυάζεται με τρία μάρκες για συνολικά 768 MB DDR3L DRAM, για να επιτευχθεί ένα συγκεκριμένο εύρος ζώνης. Το FPGA που χρησιμοποιείται επίσης διαθέτει μια διεπαφή LVDS για τον έλεγχο του πίνακα ελέγχου. Αυτή η ενότητα προορίζεται να αντικαταστήσει τους κοινούς αναρριχητές και να ενσωματωθεί εύκολα από τους κατασκευαστές των οθονών, οι οποίοι χρειάζονται μόνο τη φροντίδα της πλακέτας κυκλώματος τροφοδοσίας και των συνδέσεων εισόδου.

Το G-Sync έχει αντιμετωπίσει κάποιες επικρίσεις λόγω του ιδιόκτητου χαρακτήρα του και του γεγονότος ότι εξακολουθεί να προωθείται όταν υπάρχουν ελεύθερες εναλλακτικές λύσεις, όπως το πρότυπο VESA Adaptive-Sync, το οποίο αποτελεί προαιρετικό χαρακτηριστικό του DisplayPort 1.2a. Ενώ το FreeSync της AMD βασίζεται στο DisplayPort 1.2a, η G-Sync απαιτεί να λειτουργήσει σωστά η Nvidia-made module αντί του συνήθους κλιμακωτή οθόνης για τις κάρτες γραφικών Nvidia GeForce, να είναι συμβατή με τους Kepler, Maxwell, Pascal και Βόλτα.

Το επόμενο βήμα λήφθηκε με την τεχνολογία G-Sync HDR, η οποία, όπως υποδηλώνει και το όνομά της, προσθέτει δυνατότητες HDR για να βελτιώσει σημαντικά την ποιότητα εικόνας της οθόνης. Για να καταστεί αυτό δυνατό, έπρεπε να γίνει ένα σημαντικό άλμα στο υλικό. Αυτή η νέα έκδοση του G-Sync HDR χρησιμοποιεί έναν επεξεργαστή Intel Altera Arria 10 GX 480 FPGA, έναν εξαιρετικά προηγμένο και ιδιαίτερα προγραμματιζόμενο επεξεργαστή που μπορεί να κωδικοποιηθεί για ένα ευρύ φάσμα εφαρμογών, συνοδευόμενο από 3 GB μνήμης DDR4 2400MHz που κατασκευάζεται από τη Micron. Αυτό καθιστά την τιμή αυτών των οθονών ακριβότερη.

Εδώ τελειώνει η θέση μας σε ό, τι πρέπει να ξέρετε για τη Nvidia. Θυμηθείτε ότι μπορείτε να το μοιραστείτε στα κοινωνικά δίκτυα, ώστε να φτάσει σε περισσότερους χρήστες. Μπορείτε επίσης να αφήσετε ένα σχόλιο αν έχετε οποιαδήποτε πρόταση ή κάτι που θέλετε να προσθέσετε.

Android

Η επιλογή των συντακτών

Back to top button