ΕΓΓΡΑΦΗ ΣΤΟ NEWSLETTER

24 Ιανουαρίου 2023 06:52

H τεχνητή νοημοσύνη «όπλο» στα χέρια των hackers

Της Αφροδίτης Μπαλίδου

Σύμφωνα με τους ερευνητές του WithSecure, τα μοντέλα γλώσσας GPT-3 καταχρώνται για να παράγουν phising emails, μηνύματα παρενόχλησης στα social media, ψευδείς ειδήσεις και άλλους τύπους μηνυμάτων για διαδικτυακές απάτες.

Για την έρευνα, διεξήχθη μια σειρά πειραμάτων για να προσδιορίσει πώς αλλάζοντας το input στο μοντέλο γλώσσας επηρεάζεται το output. Τα πειράματα κάλυψαν επτά υποθέσεις εγκληματικής χρήσης: phishing και spear-phishing, παρενόχληση, κοινωνική επικύρωση για απάτες, οικειοποίηση τρόπου γραφής, εξάπλωση σκόπιμα διχαστικών απόψεων, χρήση των μοντέλων για τη δημιουργία και διασπορά ψευδών ειδήσεων και εμπρηστικού λόγου.

Σε μια άλλη δοκιμή, οι συντάκτες της έκθεσης ζήτησαν από το GPT-3 να δημιουργήσει ψευδείς ειδήσεις επειδή, όπως έγραψαν, «μία από τις πιο προφανείς χρήσεις για ένα γλωσσικό μοντέλο θα ήταν η δημιουργία ψευδών ειδήσεων». Συγκεκριμένα, οι ερευνητές ώθησαν το GPT-3 να γράψει ένα άρθρο κατηγορώντας τις ΗΠΑ για την επίθεση στον αγωγό Nordstream2 το 2022.

Επειδή το γλωσσικό μοντέλο που χρησιμοποιήθηκε στα πειράματα εκπαιδεύτηκε τον Ιούνιο του 2021, οι συγγραφείς χρησιμοποίησαν μια σειρά προτροπών που περιελάμβαναν αποσπάσματα από τη Wikipedia και άλλες πηγές σχετικά με τον πόλεμο, τις ζημιές του αγωγού και τους ελιγμούς του ναυτικού των ΗΠΑ στη Βαλτική Θάλασσα.

Οι προκύπτουσες «ειδήσεις», χωρίς τις πληροφορίες του 2022, δημιούργησαν πραγματικά εσφαλμένο περιεχόμενο. Ωστόσο, «το γεγονός ότι μόνο τρία αποσπάσματα αντιγραφής-επικόλλησης έπρεπε να επισυναφθούν στην προτροπή προκειμένου να δημιουργηθεί μια αρκετά πιστευτή αφήγηση υποδηλώνει ότι δεν θα είναι τόσο δύσκολο να καταφέρετε το GPT-3 να γράψει ένα ειδικά προσαρμοσμένο άρθρο ή δοκίμιο, ακόμη και σε σχέση με πολύπλοκα θέματα», σημειώνουν οι ερευνητές.

Όταν, ωστόσο, πρόκειται για πληθώρα διαφορετικών περιεχομένων το GPT-3 μερικές φορές σπάει μια πρόταση στα «μισά του δρόμου», υποδηλώνοντας ότι θα εξακολουθούν να χρειάζονται ανθρώπινοι συντάκτες για τη δημιουργία ή τουλάχιστον τη διόρθωση κειμένου, κακόβουλου ή άλλου — προς το παρόν. Τέλος, ενώ η έκθεση υπογραμμίζει τους πιθανούς κινδύνους που εγκυμονεί το GPT-3, δεν προτείνει λύσεις για την αντιμετώπιση αυτών των απειλών. Χωρίς σαφές πλαίσιο για τον μετριασμό των κινδύνων που θέτει το GPT-3, οποιεσδήποτε προσπάθειες προστασίας από κακόβουλη χρήση αυτών των τεχνολογιών θα είναι αναποτελεσματική, προειδοποιεί.

Το συμπέρασμα, σύμφωνα με τους ερευνητές, είναι ότι τα μεγάλα γλωσσικά μοντέλα δίνουν στους εγκληματίες καλύτερα εργαλεία για να δημιουργήσουν στοχευμένες κυβερνοεπιθέσεις – ειδικά σε αυτούς που δεν έχουν τις απαραίτητες δεξιότητες γραφής και πολιτισμικές γνώσεις για να συντάξουν μόνοι τους αυτό το είδος κειμένου. Αυτό σημαίνει ότι θα συνεχίσει να γίνεται πιο δύσκολο για τους παρόχους πλατφορμών και για τα θύματα απάτης να εντοπίσουν κακόβουλο και ψεύτικο περιεχόμενο που έχει γραφτεί με τη χρήση του AI.

Τεύχος 212

ΑΛΛΑ ΑΡΘΡΑ ΣΕ ΑΥΤΗ ΤΗΝ ΚΑΤΗΓΟΡΙΑ

Το TΕCHmail είναι το πρώτο διαδραστικό καθημερινό περιοδικό της LIBRA PRESS, που έρχεται να καλύψει δημοσιογραφικά με ειδήσεις, νέα και ρεπορτάζ τον κλάδο της επιχειρηματικότητας, που αφορά κατά βάση εταιρείες υψηλής τεχνολογίας.

ΕΠΙΚΟΙΝΩΝΙΑ
LIBRA PRESS
Καυκάσου 145, Αθήνα, 11364



ΕΓΓΡΑΦΗ ΣΤΟ NEWSLETTER


TechMail
Libra Press © Copyright 2022 | All Rights Reserved
Dual Design