Διαθέσιμο δωρεάν το νέο γλωσσικό AI μοντέλο της Meta σε συνεργασία με τη Microsoft

1


Μόλις μερικούς μήνες μετά τα αποκαλυπτήρια του Microsoft, η Microsoft προχωρά στο λανσάρισμα του Llama 2 σε συνεργασία με τη Microsoft, παρά το γεγονός ότι η τελευταία στηρίζει και την OpenAI για την ανάπτυξη του GPT που αξιοποιείται στο Bing Chat.

Το Llama 2 χαρακτηρίζεται ως ένα open-source λογισμικό που μπορεί να χρησιμοποιηθεί δωρεάν για ερευνητικούς, αλλά και για εμπορικούς σκοπούς. Η διάθεση του γίνεται μέσω του καταλόγου Azure AI της Microsoft για cloud-based λύσεις και μπορεί να τρέξει τοπικά στο λειτουργικό σύστημα Windows. Επιπλέον, θα είναι διαθέσιμο και από άλλους παρόχους όπως τα Hugging Face και Amazon Web Services.

Στο επίσημο blog της, η Microsoft αναφέρει τα εξής:

Το Llama 2 έχει σχεδιαστεί με στόχο να βοηθήσει τους developers και τους οργανισμούς να δημιουργήσουν παραγωγικά εργαλεία Τεχνητής Νοημοσύνης και αντίστοιχες εμπειρίες για τους χρήστες. Οι Meta και Microsoft μοιράζονται το κοινό όραμα εκδημοκρατισμού της Τεχνητής Νοημοσύνης και των πλεονεκτημάτων που προσφέρει, γι’ αυτό είμαστε ενθουσιασμένοι με την ανοικτή προσέγγιση που υιοθετεί η Meta στο Llama 2. Προσφέρουμε στους developers πολλαπλές επιλογές για τα μοντέλα που αναπτύσσουν, υποστηρίζουμε τον ανοικτό χαρακτήρα του Llama 2 και χαιρόμαστε ιδιαίτερα με την επιλογή της Meta ως κύριου συνεργάτη μας σε αυτό το πρώτο λανσάριμα του Llama 2 για το κοινό.

Από την πλευρά του, ο CEO της Meta, Mark Zuckerberg, έδωσε μερικές επιπλέον πληροφορίες για τις δυνατότητες του Llama 2:

Το Llama 2 έχει προεκπαιδευτεί με 40% περισσότερα δεδομένα σε σύγκριση με την πρώτη έκδοση και φέρει σημαντικές βελτιώσεις στην αρχιτεκτονική του. Συγκεντρώσαμε περισσότερες από 1 εκατ. επισημάνσεις χρηστών και ακολουθήσαμε την μέθοδο Supervised Fine-Tuning (SFT) ενισχυμένη με ανατροφοδότηση από ανθρώπους για να παρέχουμε κορυφαία αποτελέσματα όσον αφορά την ασφάλεια και την ποιότητα.

Μπορείτε να βρείτε το Llama 2 εδώ.

[Microsoft]

*Ακολουθήστε το Techgear.gr στο Google News για να ενημερώνεστε άμεσα για όλα τα νέα άρθρα!



Πηγή