Η Τεχνητή Νοημοσύνη είναι ένα από τα πιο δημοφιλή θέματα, όχι μόνο χάρη στην κυκλοφορία και την απήχηση των LLM chatbots, όπως το ChatGPT και το DeepSeek από την Κίνα που γκρέμισε το χρηματιστήριο. Η δημοτικότητα αυτών των εργαλείων έχει οδηγήσει σε ανησυχίες σχετικά με το πώς θα επηρεάσουν τους ανθρώπους σε διάφορους κλάδους, συμπεριλαμβανομένων των ανθρώπων που δεν είναι εξοικειωμένοι με τον όρο «Τεχνητή Νοημοσύνη».
Υπάρχουν κάποιοι κίνδυνοι που σχετίζονται με τα AI συστήματα, ειδικά όταν πρόκειται για την πιθανότητά τους να εμβαθύνουν την παραπληροφόρηση, τις παραβιάσεις της ιδιωτικότητας, την υπερβολική εξάρτηση και, φυσικά, τον πόλεμο. Ως εκ τούτου, οι κορυφαίοι ηγέτες της AI εργάζονται συνεχώς σκληρά για να διατηρήσουν την AI ασφαλή για όλους. Η Google δημοσιεύει κάθε χρόνο εδώ και έξι χρόνια μια «Έκθεση προόδου για την υπεύθυνη Τεχνητή Νοημοσύνη» και σήμερα, δημοσίευσε την αντίστοιχη έκθεση για το 2024.
Στην ανάρτηση της, η Google ανέφερε ότι έχει επικαιροποιήσει το Frontier Safety Framework. Αν δεν ξέρετε τι είναι αυτό, πρόκειται για ένα σύνολο πρωτοκόλλων που αναπτύχθηκε από την Google DeepMind για τον προληπτικό εντοπισμό και τον μετριασμό των πιθανών κινδύνων που σχετίζονται με τα προηγμένα AI μοντέλα. Το επικαιροποιημένο πλαίσιο περιλαμβάνει:
Παράλληλα με την επικαιροποίηση του πλαισίου ασφαλείας, η Google επανέλαβε την πεποίθησή της ότι οι δημοκρατίες θα πρέπει να πρωτοστατούν στην ανάπτυξη της Τεχνητής Νοημοσύνης, καθοδηγούμενες από αξίες όπως «η ελευθερία, η ισότητα και ο σεβασμός των ανθρωπίνων δικαιωμάτων». Επιπλέον, δήλωσε ότι επικαιροποιεί τις αρχές της για την AI, οι οποίες δημοσιεύθηκαν δημόσια το 2018.
Όταν ρίξετε μια ματιά στην πλήρη σελίδα των αρχών για την AI, θα παρατηρήσετε ότι δεν υπάρχει καμία αναφορά στη χρήση της AI στην ανάπτυξη όπλων. Αυτό το αντίγραφο της σελίδας, που αρχειοθετήθηκε στις 22 Φεβρουαρίου 2024, έχει ένα μέρος που αναφέρει ρητά τα όπλα και την υπόσχεση της Google να μην «σχεδιάσει ή αναπτύξει AI» σε αυτόν τον τομέα:
Όπλα ή άλλες τεχνολογίες των οποίων ο κύριος σκοπός ή η εφαρμογή είναι να προκαλέσουν ή να διευκολύνουν άμεσα τον τραυματισμό ανθρώπων.
Αυτή η γραμμή έχει πλέον εξαφανιστεί από τις επικαιροποιημένες αρχές. Οι επικαιροποιημένες αρχές θα επικεντρωθούν στις ακόλουθες τρεις βασικές αρχές:
Η Google δεν έχει σχολιάσει την άρση της δέσμευσης να μην χρησιμοποιήσει την AI στην ανάπτυξη όπλων, αλλά αυτό είναι κάτι στο οποίο οι υπάλληλοί της έχουν εκφράσει έντονη αντίθεση στο παρελθόν. Για παράδειγμα, το 2018, σχεδόν 4.000 εργαζόμενοι της Google υπέγραψαν επιστολή με την οποία προέτρεπαν την εταιρεία να τερματίσει τη σύμβαση με το Υπουργείο Άμυνας των ΗΠΑ, γνωστή ως Project Maven, η οποία αφορούσε τη χρήση AI για την ανάλυση υλικού από μη επανδρωμένα αεροσκάφη.
Ομοίως, πέρυσι, οι εργαζόμενοι της Google DeepMind υπέγραψαν επιστολή με την οποία προέτρεπαν τον τεχνολογικό γίγαντα να τερματίσει τους δεσμούς του με στρατιωτικούς οργανισμούς. Η επιστολή επικαλέστηκε τις αρχές της εταιρείας για την Τεχνητή Νοημοσύνη, υποστηρίζοντας ότι η εμπλοκή της με τον στρατό και την κατασκευή όπλων ήταν αντίθετη και παραβίαζε την υπόσχεση που έχει πλέον αφαιρεθεί να μην χρησιμοποιήσει την Τεχνητή Νοημοσύνη σε αυτόν τον τομέα.
[via]
Έναν νέο «σύμμαχο» απέναντι στη θαλάσσια ρύπανση παρουσίασαν τα εργαστήρια του Technical University of Munich…
Η εφαρμογή Google Maps δέχεται ένα νέο αισθητικό φρεσκάρισμα αλλά και μερικές χρήσιμες προσαρμογές στη λειτουργικότητά…
Η Samsung άνοιξε έναν νέο γύρο συζήτησης γύρω από τα όρια της τεχνολογίας στο σπίτι,…
Η AGON by AOC ανακοινώνει την AGON PRO AG276QKD2, μια πρωτοποριακή οθόνη gaming QD-OLED 26,5…
Μια αποστολή που κατευθύνεται σε έναν μακρινό αστεροειδή φαίνεται να κρύβει περισσότερες προκλήσεις από όσες…
Η DJI παρουσίασε το νέο της δημιούργημα στην κατηγορία των drones κάτω από τα 250…
Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.
Leave a Comment