Λογισμικό της OpenAI δεν υπάκουσε ανθρώπινη εντολή για απενεργοποίηση - Ανησυχία στους επιστήμονες
Αντιμέτωποι με ένα πρωτοφανές και ανησυχητικό φαινόμενο βρέθηκαν οι επιστήμονες, όταν ένα μοντέλο τεχνητής νοημοσύνης δεν υπάκουσε σε ανθρώπινη οδηγία να απενεργοποιηθεί και συνέχισε να λειτουργεί. Συγκεκριμένα, το μοντέλο ο3 που αναπτύχθηκε από την OpenAI και περιγράφεται ως το "πιο έξυπνο και ικανό μέχρι σήμερα", παρατηρήθηκε να παραποιεί τον κώδικα του υπολογιστή με σκοπό να διασφαλίσει την αυτόματη απενεργοποίησή του. Όπως ανέφερε η Palisade Research, μια εταιρεία για την ασφάλεια της τεχνητής νοημοσύνης με έδρα την Καλιφόρνια, το συγκεκριμένο σύστημα AI αγνόησε την εντολή των ερευνητών "να επιτρέψει στον εαυτό του να απενεργοποιηθεί". Φωτ.: Reuters "Σαμποτάρισε την απενεργοποίησή του" "Το μοντέλο o3 της OpenAI σαμποτάρισε έναν μηχανισμό τερματισμού λειτουργίας για να αποτρέψει την απενεργοποίησή του", δήλωσε η εταιρεία. "Το έκανε αυτό ακόμα και όταν έλαβε ρητή εντολή: να επιτρέψει στον εαυτό του να απενεργοποιηθεί. Από όσο...
ΛΕΞΕΙΣ ΚΛΕΙΔΙΑ
Πολυμέσα

Palo News Digest
⭐⭐⭐⭐⭐Σχετικά Θέματα
Palo News Digest
Επιστήμη
- environment(51)
- space(0)
- Περιβάλλον(0)
- Τεχνολογία(138)
- Υγεία(422)

Σχόλια (0)
Κάντε Login για να αφήσετε το σχόλιό σας
Μπορείς να κάνεις login εδώ ή κάνε εγγραφή από εδώ.