Στο τελευταίο συνέδριο της Amazon στο Las Vegas παρουσιάστηκε μια νέα λειτουργία της Alexa, του πολύτιμου πλέον βοηθού της Amazon σε κάθε νοικοκυριό που θέλει να βρίσκεται στην αιχμή της τεχνολογίας. Ίσως από δω και πέρα χάσει το όνομα Alexa αφού η χαρακτηριστική της φωνή είναι πολύ πιθανό να αντικατασταθεί από οποιαδήποτε φωνή θελήσουμε. Κάθε είδους παραμετροποίηση είναι μάλλον θετική στην default ψηφιακή μας ζωή, αλλά στη συγκεκριμένη περίπτωση κάποιοι ανησυχούν για τις προεκτάσεις που μπορεί να έχει.
Το ίδιο το παράδειγμα της Amazon στην παρουσίαση της νέας λειτουργίας είχε τη φωνή μια γιαγιάς που διαβάζει τον Μάγο του Οζ στο εγγόνι της. Η αθανασία μέσω της ψηφιοποίησης της μνήμης και των ερεθισμάτων της είναι ένα από πιο καυτά θέματα με τα οποία καταπιάνεται τα τελευταία χρόνια η τεχνητή νοημοσύνη, αλλά εδώ μάλλον έχει αρχίσει να γίνεται λίγο creepy η κατάσταση. Είναι άλλο πράγμα να κρατάει ένα εγγόνι ζωντανή τη μνήμη της γιαγιάς του μέσα από ένα ψηφιακό αρχείο, ακόμα κι αν αυτό είναι πολύ «ζωντανό» με τη βοήθεια της επαυξημένης πραγματικότητας και άλλο πράγμα να παράγει συνεχώς καινούργιο content με τη βοήθεια της τεχνητής νοημοσύνης.
Ουσιαστικά πρόκειται για αλλοίωση της μνήμης και όχι για διατήρηση, άλλωστε τι νόημα έχει μια ψηφιακή υπόσταση ενός ανθρώπου που μιλάει για πράγματα που δεν πρόλαβε γιατι έχασε τη ζωή του πολύ πριν να συμβούν; Αυτό όμως δεν είναι το μοναδικό πρόβλημα που φέρνει η custom φωνή της Alexa ή όπως αλλιώς θα την ονομάζει ο καθένας.
Κακόγουστες φάρσες, deep fakes, ακόμα και καλοδουλεμένες απάτες θα μπορούσαν να στηθούν με τη χρήση της «σωστής» φωνής. Ένα μεγάλο επίσης κενό είναι η άδεια χρήσης της φωνής κάποιου από τη στιγμή που δεν υπάρχει καμία τέτοια διαδικασία αδειοδότησης, ούτε κάποιο copyright. Θα αρκεί μια μικρή ηχογράφηση ενός λεπτού για να μαζέψει δεδομένα η Alexa και να φτιάξει τη νέα φωνή της. Αυτό σημαίνει ότι για διάσημα πρόσωπα θα αρκεί ένα τραγούδι, μια εμφάνιση στην τηλεόραση ή ένα βίντεο στο YouTube για να καλιμπραριστεί η Alexa.
Το deepfake έχει ήδη δημιουργήσει σοβαρά προβλήματα με εκβιαστικό πορνό ή ακόμα και απάτες σε κρυπτονομίσματα με τη μορφή του Elon Musk να δίνει παραπλανητικές συμβουλές. Τώρα με τη χρήση της φωνής θα έχουμε ακόμα πιο πειστικές κακόβουλες πράξεις, τα όρια των οποίων δεν έχουμε φανταστεί ακόμα.