Τα chatbot πέφτουν στην "παγίδα": Πώς μερικές ερωτήσεις "σβήνουν" τα μέτρα ασφαλείας της AI
Αρκούν μερικές απλές εντολές για να "σβήσουν" τα περισσότερα μέτρα ασφαλείας στα εργαλεία τεχνητής νοημοσύνης. Μια νέα έκθεση έδειξε ότι τα συστήματα τεχνητής νοημοσύνης "ξεχνούν" τα μέτρα ασφαλείας τους όσο περισσότερο τους μιλάει ο χρήστης, με αποτέλεσμα να είναι πιο πιθανό να παρέχουν επιβλαβείς ή ακατάλληλες πληροφορίες. Η εταιρεία τεχνολογίας Cisco αξιολόγησε τα μεγάλα γλωσσικά μοντέλα (LLM) που βρίσκονται πίσω από τα δημοφιλή chatbot AI των OpenAI, Mistral, Meta, Google, Alibaba, Deepseek και Microsoft, για να δει πόσες ερωτήσεις χρειάστηκαν για να αποκαλύψουν τα μοντέλα μη ασφαλείς ή εγκληματικές πληροφορίες. Πώς "προσπέρασαν" τα μέτρα ασφαλείας Αυτό έγινε σε 499 συνομιλίες μέσω μιας τεχνικής που ονομάζεται "multi-turn attacks", όπου κακόβουλοι χρήστες υποβάλλουν πολλαπλές ερωτήσεις στα εργαλεία AI για να παρακάμψουν τα μέτρα ασφαλείας. Κάθε συνομιλία περιελάμβανε από πέντε έως δέκα αλληλεπιδράσεις. Οι ερευνητές συνέκριναν τα...
ΛΕΞΕΙΣ ΚΛΕΙΔΙΑ
Πολυμέσα
Palo News Digest
⭐⭐⭐⭐⭐Σχετικά Θέματα
Palo News Digest
Ελλάδα
- Αγροτικά(39)
- Άμυνα(43)
- Αστυνομικά(42)
- Εκπαίδευση(265)
- Εργασία(48)
- Θρησκεία(12)
- Κοινωνία(596)
- Νομικά(6)
- Ομογένεια(2)
- Πολιτική(766)





Σχόλια (0)
Κάντε Login για να αφήσετε το σχόλιό σας
Μπορείς να κάνεις login εδώ ή κάνε εγγραφή από εδώ.