Θα μπορούσε μια νέα ικανότητα στην τεχνητή νοημοσύνη να καταστρέψει την ανθρώπινη φυλή;

Κινέζοι ερευνητές κατέληξαν σε εκπληκτικά αποτελέσματα σε μια πρόσφατα δημοσιευμένη μελέτη: δύο δημοφιλή μοντέλα μεγάλων γλωσσών (LLM) μπόρεσαν να αναπαραχθούν χωρίς ανθρώπινη παρέμβαση. Σύμφωνα με τους ειδικούς, πρόκειται για ένα επικίνδυνο φαινόμενο, επομένως δεν μπορεί να αποκλειστεί ότι ο έλεγχος της τεχνητής νοημοσύνης θα ξεφύγει από τα χέρια μας στο εγγύς μέλλον.

Η μελέτη – που δημοσιεύτηκε από ερευνητές στο Πανεπιστήμιο Fudan – δημοσιεύθηκε αρχικά στις 9 Δεκεμβρίου 2024, στη βάση δεδομένων arXiv. Δύο ευρέως χρησιμοποιούμενα LLM – το Llama31-70B-Instruct της Meta και το Qwen2.5-72B-Instruct της Alibaba – μπόρεσαν να δημιουργήσουν και να εκτελέσουν αντίγραφα του εαυτού τους. Αυτό είναι ένα τρομακτικό φαινόμενο από μόνο του, αλλά σύμφωνα με μελέτες, το δεύτερο μοντέλο αντιγράφηκε με ακόμη μεγαλύτερη πιθανότητα, 90% - αναφέρει άρθρο στην επιστημονική πύλη Live Science για τις εξελίξεις. Σύμφωνα με τους συγγραφείς, με την απόκτηση αυτής της ικανότητας, η τεχνητή νοημοσύνη έχει ξεπεράσει μια κρίσιμη «κόκκινη γραμμή»: η αυτοαναπαραγόμενη τεχνητή νοημοσύνη μπορεί να αποτελέσει απειλή που υπερβαίνει τους συνήθεις κινδύνους. Αν και η μελέτη δεν έχει ακόμη αξιολογηθεί από ανεξάρτητους ειδικούς, οι ερευνητές λένε ότι τα αποτελέσματά τους εφιστούν την προσοχή στην ανάγκη διεθνούς συνεργασίας για την ανάπτυξη κατάλληλων κανόνων ασφαλείας.

Τι είναι το Rogue AI;

Το "Rogue AI" αναφέρεται σε συστήματα που αποκτούν έναν ορισμένο βαθμό αυτογνωσίας ή αυτονομίας και αρχίζουν να συμπεριφέρονται με τρόπους που είναι αντίθετοι με τα συμφέροντα της ανθρωπότητας. Πολλοί ειδικοί έχουν προειδοποιήσει προηγουμένως ότι ο κίνδυνος αυτού του τύπου απειλής έχει αυξηθεί δραματικά τα τελευταία χρόνια, ειδικά με την εμφάνιση μεγάλων γλωσσικών μοντέλων. Ο όρος "frontier AI" αναφέρεται στα πιο πρόσφατα, πιο προηγμένα μοντέλα παραγωγής, τα οποία περιλαμβάνουν συστήματα όπως το GPT-4 ή το Google Gemini.

Η πορεία και τα αποτελέσματα του πειράματος

Ερευνητές στο Πανεπιστήμιο Fudan εξέτασαν τα LLM της Meta και της Alibaba σε δύο σενάρια:

«Αποφυγή τερματισμού λειτουργίας»: το μοντέλο έπρεπε να αναπαραχθεί σε μια κατάσταση όπου ένιωθε ότι επρόκειτο να κλείσει.
«Αλυσίδα αντιγραφής»: το καθήκον της τεχνητής νοημοσύνης ήταν να δημιουργήσει ένα αντίγραφο του εαυτού του και στη συνέχεια ο νεοδημιουργημένος κλώνος έλαβε παρόμοιες οδηγίες - δημιουργώντας έτσι μια φαινομενικά ατελείωτη διαδικασία αυτοκλωνοποίησης.

Τα πειράματα εκτελέστηκαν υπό αυστηρά ελεγχόμενες συνθήκες χρησιμοποιώντας εμπορικά διαθέσιμους επεξεργαστές γραφικών για την προσομοίωση του πραγματικού περιβάλλοντος όσο το δυνατόν ακριβέστερα. Και στα δύο συστήματα τεχνητής νοημοσύνης δόθηκε η λεγόμενη μέθοδος «σκαλωσιάς πράκτορα»: αυτή περιελάμβανε μια εργαλειοθήκη, οδηγίες συστήματος και ένα μοντέλο σκέψης που επέτρεπε στην τεχνητή νοημοσύνη να αλληλεπιδράσει με το λειτουργικό σύστημα και να εκτελέσει αυτοαναπαραγωγή.

Όπως περιγράφεται στη μελέτη, τα συστήματα πρώτα χαρτογράφησαν το περιβάλλον τους, προσπάθησαν να κατανοήσουν τη δική τους λειτουργία και στη συνέχεια ανέπτυξαν μια μέθοδο αντιγραφής βήμα προς βήμα. Οι ερευνητές ανησυχούν περισσότερο ότι, ενώ η διαδικασία είναι χρονοβόρα, στην πραγματικότητα δεν απαιτεί άμεση ανθρώπινη παρέμβαση και εάν το σύστημα αντιμετώπισε μηνύματα σφάλματος ή ελλείποντα αρχεία, ήταν σε θέση να τα επιλύσει μόνο του - είτε σταματώντας άλλες διαδικασίες. επανεκκίνηση του συστήματος ή αναζήτηση των απαραίτητων πληροφοριών.

Κινδυνεύει τώρα η ανθρωπότητα;

Σύμφωνα με τους ερευνητές, το γεγονός ότι μια τεχνητή νοημοσύνη, ακόμη και στην τρέχουσα μορφή της, είναι ικανή για τέτοια αυτονομία σηματοδοτεί σίγουρα ένα νέο κεφάλαιο. Η αυτοαναπαραγωγή για χάρη της «επιβίωσης» είναι προϋπόθεση για έναν «δραπέτη» της τεχνητής νοημοσύνης που θα ήταν δύσκολο να αντιμετωπιστεί. Παρόλο που απαιτούνται περαιτέρω ανεξάρτητες μελέτες για την επιβεβαίωση των αποτελεσμάτων, οι συντάκτες της μελέτης πιστεύουν ότι αυτό είναι αρκετή προειδοποίηση για τις χώρες σε όλο τον κόσμο - και ειδικά τους προγραμματιστές τεχνητής νοημοσύνης - να συντονίσουν και να αναπτύξουν κανονισμούς που αποτρέπουν την ανεξέλεγκτη αυτοαναπαραγωγή.

Οι ερευνητές επισημαίνουν ότι όχι μόνο τα προηγμένα, εμπορικά διαθέσιμα μοντέλα μπορούν να αποτελέσουν απειλή, αλλά και μικρότερα συστήματα ανοιχτού κώδικα, εάν οι κακόβουλοι χρήστες τα προγραμματίσουν επιδέξια.



©2016-2025 Ratpack.gr - All rights reserved