"Σκοτεινή AI": Πώς χάκερς "σπάνε" την τεχνητή νοημοσύνη για να δίνει επικίνδυνες οδηγίες για όπλα και ναρκωτικά
Έρευνα κρούει τον κώδωνα του κινδύνου σχετικά με τις επικίνδυνες απαντήσεις που μπορεί να δίνουν τα chatbots τεχνητής νοημοσύνης. Η μελέτη αναφέρει πως chatbots που έχουν χακαριστεί μπορούν να δίνουν επικίνδυνες πληροφορίες, τις οποίες έχουν "απορροφήσει" κατά τη διάρκεια της εκπαίδευσής τους, προσφέροντας στους χρήστες οδηγίες για να φτιάξουν ναρκωτικά, μεταξύ άλλων. ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ Το "jailbreak" των chatbots τεχνητής νοημοσύνης Οι ειδικοί προειδοποιούν πως αναδύεται μια ανησυχητική τάση: το λεγόμενο "jailbreak", μια διαδικασία που μπορεί να παρακάμψει τα ενσωματωμένα μέτρα ασφαλείας των chatbots τεχνητής νοημοσύνης, τα οποία υπάρχουν για να αποτρέπουν τις απαντήσεις σε ανάρμοστες ερωτήσεις με δυνητικά επικίνδυνο περιεχόμενο. Οι μηχανές που τροφοδοτούν τα chatbot όπως το ChatGPT, το Gemini και το Claude -τα λεγόμενα μεγάλα γλωσσικά μοντέλα (LLMs)- εκπαιδεύονται με τεράστιες ποσότητες υλικού από το διαδίκτυο.Πώς...
ΛΕΞΕΙΣ ΚΛΕΙΔΙΑ
Πολυμέσα

Palo News Digest
⭐⭐⭐⭐⭐Σχετικά Θέματα
Palo News Digest
Επιστήμη
- environment(49)
- space(0)
- Περιβάλλον(0)
- Τεχνολογία(155)
- Υγεία(413)

Σχόλια (0)
Κάντε Login για να αφήσετε το σχόλιό σας
Μπορείς να κάνεις login εδώ ή κάνε εγγραφή από εδώ.