Categories: Technology

Προγράμματα τεχνητής νοημοσύνης τρομάζουν τον πλανήτη -«Κεραυνοί» Μασκ ζητά με ειδικούς την παύση τους


Την παύση ανάπτυξης συστημάτων ισχυρότερων από το GPT-4 της OpenAI ζητά ο Έλον Μασκ και μια ομάδα εμπειρογνωμόνων τεχνητής νοημοσύνης και στελεχών της βιομηχανίας.

Η επιστολή, που υπογράφηκε από τουλάχιστον 1.000 άτομα μεταξύ των οποίων και ο Μασκ, ζητά την παύση ανάπτυξης της προηγμένης τεχνητής νοημοσύνης έως ότου αναπτυχθούν, εφαρμοστούν και ελεγχθούν από ανεξάρτητους εμπειρογνώμονες κοινά πρωτόκολλα ασφαλείας. Στους συνυπογράφοντες περιλαμβάνονται ο ιδρυτής και διευθύνων σύμβουλος της Stability AI, ερευνητές της DeepMind, που ανήκει στην Alphabet (GOOGL.O), ο Γιόσουα Μπένζιο, που συχνά αναφέρεται ως ένας από τους «νονούς της AI», και ο Στιούαρτ Ράσελ πρωτοπόρος της έρευνας στον τομέα.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

«Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι», σημειώνει η επιστολή.

Παράλληλα, περιγράφει λεπτομερώς τους πιθανούς κινδύνους για την κοινωνία και τον πολιτισμό από τα ανταγωνιστικά ως προς τον άνθρωπο συστήματα τεχνητής νοημοσύνης με την μορφή οικονομικών και πολιτικών διαταραχών και καλεί τους προγραμματιστές να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για τη διακυβέρνηση και τις ρυθμιστικές αρχές.

Η OpenAI δεν προχώρησε σε κάποιο σχετικό σχόλιο. Νωρίτερα αυτόν τον μήνα, το OpenAI, το οποίο υποστηρίζεται από τη Microsoft, παρουσίασε την τέταρτη έκδοση του προγράμματος GPT AI, το οποίο εντυπωσίασε τους χρήστες με το τεράστιο εύρος χρήσεων, από τη συμμετοχή χρηστών σε συνομιλίες που μοιάζουν ανθρώπινες μέχρι τη σύνθεση τραγουδιών και περίληψη μακροσκελών εγγράφων.

Η προειδοιποίηση της Europol για την τεχνητή νοημοσύνη

Η επιστολή έρχεται λίγες ημέρες αφότου, η Europol έκρουσε καμπανάκι σχετικά με την χρήση της τεχνητή νοημοσύνη όπως το ChatGPT, προειδοποιώντας για την πιθανή κατάχρηση του συστήματος σε απόπειρες phishing, παραπληροφόρησης και εγκλήματα στον κυβερνοχώρο.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Η ικανότητα του ChatGPT να παράγει γρήγορα αυθεντικά ηχητικά κείμενα το καθιστά «ιδανικό για σκοπούς προπαγάνδας και παραπληροφόρησης, καθώς επιτρέπει στους χρήστες να παράγουν και να διαδίδουν μηνύματα που αντικατοπτρίζουν μια συγκεκριμένη αφήγηση με σχετικά μικρή προσπάθεια».

Παράλληλα, το ChatGPT να χρησιμοποιηθεί για τη συγγραφή κώδικα υπολογιστή, ειδικά για εγκληματίες που δεν έχουν τεχνικές γνώσεις. Η Europol δήλωσε: «Η Europol δεν έχει καμία σχέση με την τεχνολογία αυτή».

Με πληροφορίες Reuters

ΠΕΡΙΣΣΟΤΕΡΑ ΒΙΝΤΕΟ

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 



Πηγή

iTech News

Leave a Comment

Recent Posts

Χρήστος Ταραντίλης: Ο ρόλος της Τεχνητής Νοημοσύνης στην εποχή της παραπληροφόρησης

Χρήστος Ταραντίλης: Ο ρόλος της Τεχνητής Νοημοσύνης στην εποχή της παραπληροφόρησης - Newsbeast play …

13 ώρες ago

Το WhatsApp στο στόχαστρο της ΕΕ λόγω της AI

Η Ευρωπαϊκή Ένωση ξεκίνησε μια νέα, ιδιαίτερα αιχμηρή έρευνα γύρω από τη Meta, επικεντρωμένη αυτή…

13 ώρες ago

Πρώτο trailer για την επερχόμενη 2η σεζόν

Η βρετανική σειρά A Thousand Blows, δημιούργημα του Steven Knight (Peaky Blinders), επιστρέφει για δεύτερη…

13 ώρες ago

Ο Δεκέμβριος ξεκίνησε με διπλό δωράκι στο Epic Games Store

Το Epic Games Store συνεχίζει τις εβδομαδιαίες προσφορές του και αυτή τη φορά ανεβάζει ταχύτητα.…

15 ώρες ago

Ολοκληρώθηκε η κατασκευή του πιο φιλόδοξου τηλεσκοπίου της NASA!

Η NASA ολοκλήρωσε την κατασκευή ενός από τα πιο φιλόδοξα επιστημονικά έργα της εποχής μας:…

15 ώρες ago

Αυτό είναι το χρώμα της χρονιάς για το 2026

Η Pantone φαίνεται πως εγκατέλειψε, έστω και προσωρινά, τις φωτεινές προτάσεις της και επέλεξε για…

15 ώρες ago

Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.