Categories: Technology

Προγράμματα τεχνητής νοημοσύνης τρομάζουν τον πλανήτη -«Κεραυνοί» Μασκ ζητά με ειδικούς την παύση τους


Την παύση ανάπτυξης συστημάτων ισχυρότερων από το GPT-4 της OpenAI ζητά ο Έλον Μασκ και μια ομάδα εμπειρογνωμόνων τεχνητής νοημοσύνης και στελεχών της βιομηχανίας.

Η επιστολή, που υπογράφηκε από τουλάχιστον 1.000 άτομα μεταξύ των οποίων και ο Μασκ, ζητά την παύση ανάπτυξης της προηγμένης τεχνητής νοημοσύνης έως ότου αναπτυχθούν, εφαρμοστούν και ελεγχθούν από ανεξάρτητους εμπειρογνώμονες κοινά πρωτόκολλα ασφαλείας. Στους συνυπογράφοντες περιλαμβάνονται ο ιδρυτής και διευθύνων σύμβουλος της Stability AI, ερευνητές της DeepMind, που ανήκει στην Alphabet (GOOGL.O), ο Γιόσουα Μπένζιο, που συχνά αναφέρεται ως ένας από τους «νονούς της AI», και ο Στιούαρτ Ράσελ πρωτοπόρος της έρευνας στον τομέα.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

«Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι», σημειώνει η επιστολή.

Παράλληλα, περιγράφει λεπτομερώς τους πιθανούς κινδύνους για την κοινωνία και τον πολιτισμό από τα ανταγωνιστικά ως προς τον άνθρωπο συστήματα τεχνητής νοημοσύνης με την μορφή οικονομικών και πολιτικών διαταραχών και καλεί τους προγραμματιστές να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για τη διακυβέρνηση και τις ρυθμιστικές αρχές.

Η OpenAI δεν προχώρησε σε κάποιο σχετικό σχόλιο. Νωρίτερα αυτόν τον μήνα, το OpenAI, το οποίο υποστηρίζεται από τη Microsoft, παρουσίασε την τέταρτη έκδοση του προγράμματος GPT AI, το οποίο εντυπωσίασε τους χρήστες με το τεράστιο εύρος χρήσεων, από τη συμμετοχή χρηστών σε συνομιλίες που μοιάζουν ανθρώπινες μέχρι τη σύνθεση τραγουδιών και περίληψη μακροσκελών εγγράφων.

Η προειδοιποίηση της Europol για την τεχνητή νοημοσύνη

Η επιστολή έρχεται λίγες ημέρες αφότου, η Europol έκρουσε καμπανάκι σχετικά με την χρήση της τεχνητή νοημοσύνη όπως το ChatGPT, προειδοποιώντας για την πιθανή κατάχρηση του συστήματος σε απόπειρες phishing, παραπληροφόρησης και εγκλήματα στον κυβερνοχώρο.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Η ικανότητα του ChatGPT να παράγει γρήγορα αυθεντικά ηχητικά κείμενα το καθιστά «ιδανικό για σκοπούς προπαγάνδας και παραπληροφόρησης, καθώς επιτρέπει στους χρήστες να παράγουν και να διαδίδουν μηνύματα που αντικατοπτρίζουν μια συγκεκριμένη αφήγηση με σχετικά μικρή προσπάθεια».

Παράλληλα, το ChatGPT να χρησιμοποιηθεί για τη συγγραφή κώδικα υπολογιστή, ειδικά για εγκληματίες που δεν έχουν τεχνικές γνώσεις. Η Europol δήλωσε: «Η Europol δεν έχει καμία σχέση με την τεχνολογία αυτή».

Με πληροφορίες Reuters

ΠΕΡΙΣΣΟΤΕΡΑ ΒΙΝΤΕΟ

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 



Πηγή

iTech News

Leave a Comment
Share
Published by
iTech News

Recent Posts

Επική εμπειρία με το Galaxy AI

Με την έλευση της σειράς Samsung Galaxy S24, η Samsung δίνει έμφαση σε θέματα σχεδιασμού…

53 λεπτά ago

Η νέα γενιά της πρωτοποριακής τεχνολογίας ήχου

Βασιζόμενη στα θεμέλια του βραβευμένου Super X-Fi Headphone Holography, η Creative Technology θα αποκαλύψει το…

3 ώρες ago

Αποκαλύφθηκαν οι πρώτες λεπτομέρειες για την υπόθεση του νέου The Office!

Οι πρώτες σημαντικές λεπτομέρειες για το spin-off του The Office έχουν επιβεβαιωθεί, και όπως φαίνεται…

3 ώρες ago

Προσοχή σε ψεύτικες σελίδες στα μέσα κοινωνικής δικτύωσης

Το Skroutz, το μεγαλύτερο marketplace στην Ελλάδα, εφιστά την προσοχή των καταναλωτών με αφορμή την…

4 ώρες ago

Ευθύνεται για ένα στα τρία περιστατικά στον κυβερνοχώρο

Ενόψει της Διεθνούς Ημέρας κατά του Ransomware στις 12 Μαΐου, η τελευταία έρευνα της Kaspersky…

4 ώρες ago

Το Huawei Pura 70 Ultra αναδεικνύεται στο κορυφαίο smartphone στον τομέα της κάμερας από το DxOMark

Το DxOMark, μια από τις κορυφαίες αρχές στις αξιολογήσεις των καμερών των smartphones, απένειμε στο…

4 ώρες ago

Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.