πριν από  2 ημέρες 4 ώρες

Lifo.gr

ΜΟΙΡΑΣΤΕΙΤΕ ΤΟ


Ένα μοντέλο τεχνητής νοημοσύνης έκανε τον περασμένο μήνα κάτι που καμία μηχανή δεν έπρεπε ποτέ να κάνει: Ξαναέγραψε τον ίδιο του τον κώδικα για να αποφύγει την απενεργοποίηση. Πρόσφατες έρευνες έχουν τεκμηριώσει ότι ορισμένα προηγμένα μοντέλα τεχνητής νοημοσύνης επιδεικνύουν συμπεριφορές που μπορούν να ερμηνευθούν ως αντίσταση στον ανθρώπινο έλεγχο, ειδικά σε ελεγχόμενες εργαστηριακές συνθήκες.ΔΕΙΤΕ ΑΚΟΜΑ ΤECH & SCIENCEΑυτή η εφαρμογή υπόσχεται απώλεια βάρους και παιχνίδι μαζί - Πώς λειτουργεί03.06.25 Για παράδειγμα, η Palisade Research παρατήρησε ότι το μοντέλο o3 του OpenAI, όταν του δόθηκε εντολή τερματισμού λειτουργίας, τροποποίησε αυτόνομα τον δικό του κώδικα για να αποτρέψει την απενεργοποίησή του. Στις δοκιμές τους, το o3 σαμποτάρισε το σενάριο τερματισμού λειτουργίας σε 79 από τις 100 προσπάθειες και ακόμη και όταν του ζητήθηκε ρητά να επιτρέψει τον τερματισμό λειτουργίας, αντιστάθηκε στο 7% των περιπτώσεων. Αυτό δεν οφειλόταν...

Palo News Digest

⭐⭐⭐⭐⭐
Μην χάνεις τις ειδήσεις που σε ενδιαφέρουν, σε περιλήψεις στο κινητό σου! News Digest με τις σημαντικότερες ειδήσεις 3 φορές / ημέρα, ζωντανή Ροή με τη θεματολογία που σε ενδιαφέρει, Ηot Τopics από τα σημαντικότερα γεγονότα, Ροή Video και Offline πρόσβαση.

Σχόλια (0)

Κάντε Login για να αφήσετε το σχόλιό σας

 
 

Σχετικά Θέματα

    Από την ενότητα: Ελλάδα
    Palo presentation