Πριν λίγες μέρες η εμφάνιση στην ελληνική τηλεόραση, για πρώτη φορά, ενός παρουσιαστή κατασκευασμένου από Τεχνητή Νοημοσύνη (ΤΝ) ξάφνιασε πολλούς, ορισμένους μάλιστα τους ανησύχησε, παρότι έγινε εξαρχής σαφές ότι αυτός που μιλούσε δεν ήταν αληθινός άνθρωπος. Υπήρχαν και ατέλειες, όπως μια μικρή διαφορά συγχρονισμού ανάμεσα στον ήχο και την κίνηση των χειλιών, ο μονότονος τρόπος ομιλίας, η εμφάνιση μόνο του πάνω μισού του σώματος, η έλλειψη κίνησης του στήθους και διακύμανσης στη φωνή λόγω της αναπνοής. Στη Νότια Κορέα έγινε πριν από έναν χρόνο η πρώτη τέτοια επίσημη τηλεπαρουσία της ΤΝ και μετά πήραν σειρά διάφορες χώρες. Εκείνο όμως που ανησύχησε ορισμένους είναι ότι όπως εξελίσσονται τα πράγματα, σε λίγο καιρό δεν θα μπορεί να διαχωρίσει κανείς ποιος είναι άνθρωπος και ποιος μηχανή, όταν ο ομιλητής ή ο συνομιλητής δεν βρίσκεται μπροστά του. Παραπέρα, σε ένα λίγο πιο μακρινό μέλλον, μεγαλύτερης προόδου και στη ρομποτική, ίσως θα είναι δύσκολο να καταλάβεις ποιος είναι άνθρωπος και ποιος μηχανή ακόμα κι αν ο συνομιλητής βρίσκεται μπροστά σου.
Πόσο απέχουμε από τέτοιες εξελίξεις; Ενας απόμαχος πρωτοπόρος της ΤΝ, που πρόσφατα παραιτήθηκε από την «Google» ώστε να μπορεί να μιλάει ελεύθερα για τα ζητήματα αυτά όπως δήλωσε, υποστηρίζει ότι αυτή η στιγμή δεν απέχει πάνω από 10 χρόνια. Ανάλογες απόψεις συμμερίζονται και αρκετοί άλλοι ερευνητές, αν και όχι όλοι. Σήμερα όμιλοι παραγγέλνουν σε εταιρείες ΤΝ υποκατάστατα στελεχών τους, ώστε να μπορούν π.χ. να απαντούν αυτόματα σε αλληλογραφία, όπως θα έκανε ο συγκεκριμένος υπάλληλος, εκπαιδεύοντάς τα με όλη την προηγούμενη δουλειά του, χωρίς βεβαίως να δίνουν καμία αποζημίωση για το υποκατάστατο στο ...πρωτότυπο, δηλαδή στον εργαζόμενο.
Αλλά αν ο τηλεπαρουσιαστής «Ερμής» προκάλεσε κάποια ανησυχία, ίσως πιο ανησυχητική είναι η είδηση του αστυνομικού δελτίου για έναν 15χρονο από τον Ασπρόπυργο ο οποίος κατηγορείται ότι «έγδυσε» μέσω εφαρμογής ΤΝ τις φωτογραφίες δύο 12χρονων κοριτσιών, τις οποίες είχαν ανεβάσει στο Instagram, και μετά ανέβασε τις τροποποιημένες φωτογραφίες στο διαδίκτυο, σε συνομιλία με συμμαθητές του. Η εταιρεία πίσω από την εφαρμογή δηλώνει ότι δεν έχει ευθύνη, επειδή ο χρήστης αποθήκευσε σε δικά του μέσα τις πορνογραφικές φωτογραφίες. Η εταιρεία απλώς ...έκανε μπίζνες, δίνοντας στον 15χρονο - ή σε όποιον άλλο ευθύνεται γι' αυτό - τη δυνατότητα να βιάσει ψυχολογικά τα δύο κορίτσια. Και, βέβαια, ο δράστης γαλουχήθηκε μέσα σε μια κοινωνία που του έμαθε - ή τον άφησε να εννοήσει - ότι τέτοια συμπεριφορά είναι αποδεκτή.
Διεθνώς υπάρχουν ήδη πολλές ιστοσελίδες με δεκάδες χιλιάδες πορνογραφικά βίντεο, στα οποία στη συντριπτική πλειοψηφία τα πρόσωπα των γυναικών είναι ψεύτικα. Σε πολλά από τα βίντεο έχουν χρησιμοποιηθεί τα πρόσωπα διάσημων γυναικών, ηθοποιών, τραγουδιστών και άλλων, ενώ σε αρκετά άλλα έχουν χρησιμοποιηθεί τα πρόσωπα γυναικών της διπλανής πόρτας. Είναι μεγάλο ψυχολογικό πλήγμα για τις ανύποπτες γυναίκες, που ξαφνικά μαθαίνουν τυχαία ότι στο διαδίκτυο κυκλοφορεί πορνογραφικό υλικό που τις απεικονίζει. Και αν δεν μπορέσουν να αποδείξουν ότι είναι deepfake («βαθιά ψευδές», δηλαδή εξολοκλήρου κατασκευασμένο) τα πράγματα γίνονται ακόμα πιο δύσκολα, καθώς αυτό θα τις ακολουθεί σε όλη τους τη ζωή.
Χρειάζεται ανάλυση με εξειδικευμένα συστήματα, που και τα ίδια χρησιμοποιούν ΤΝ, για να βρεθούν ατέλειες στα deepfake βίντεο, εικόνες ή ηχητικά αποσπάσματα. Σε δοκιμή με χιλιάδες τέτοια υλικά, ως ψεύτικα εντοπίστηκαν μόνο τα δύο τρίτα απ' αυτά. Στο μέλλον ίσως γίνει ακόμα πιο δύσκολο έως αδύνατο να εντοπίζονται. Αλλά και σήμερα, όταν τελικά χαρακτηριστούν ψεύτικα, αυτό γίνεται εκ των υστέρων. Στο μεταξύ, το ψευδές μήνυμα ενδέχεται να έχει διαδοθεί ανεξέλεγκτα, χάρη και στα Μέσα Κοινωνικής Δικτύωσης (ΜΚΔ), και να έχει οδηγήσει σε χειραγωγημένες αντιδράσεις την κρίσιμη στιγμή. Μέσα σε ένα περιβάλλον όπου αυτό που βλέπεις και αυτό που ακούς μπορεί να είναι τελείως κατασκευασμένα, είναι δυνατόν σημαντική μερίδα όσων παρακολούθησαν το βίντεο να μην πιστέψουν την αποκάλυψη του ψεύδους. Από την άλλη μεριά, κάποιοι μπορεί να θεωρήσουν μάταιη την αναζήτηση αληθούς πληροφόρησης και να κλείσουν τα αυτιά και τα μάτια ακόμη και σε αληθινές ειδήσεις, που αποτυπώνονται στο χαρτί ή εμφανίζονται σε οθόνη, οι οποίες όμως είναι σημαντικές για διαμόρφωση μιας βασισμένης στην πραγματικότητα πολιτικής αντίληψης και γνώσης των εξελίξεων.
Πόσο απέχουμε από τέτοιες εξελίξεις; Ενας απόμαχος πρωτοπόρος της ΤΝ, που πρόσφατα παραιτήθηκε από την «Google» ώστε να μπορεί να μιλάει ελεύθερα για τα ζητήματα αυτά όπως δήλωσε, υποστηρίζει ότι αυτή η στιγμή δεν απέχει πάνω από 10 χρόνια. Ανάλογες απόψεις συμμερίζονται και αρκετοί άλλοι ερευνητές, αν και όχι όλοι. Σήμερα όμιλοι παραγγέλνουν σε εταιρείες ΤΝ υποκατάστατα στελεχών τους, ώστε να μπορούν π.χ. να απαντούν αυτόματα σε αλληλογραφία, όπως θα έκανε ο συγκεκριμένος υπάλληλος, εκπαιδεύοντάς τα με όλη την προηγούμενη δουλειά του, χωρίς βεβαίως να δίνουν καμία αποζημίωση για το υποκατάστατο στο ...πρωτότυπο, δηλαδή στον εργαζόμενο.
Βαθιά ψευδές
Διεθνώς υπάρχουν ήδη πολλές ιστοσελίδες με δεκάδες χιλιάδες πορνογραφικά βίντεο, στα οποία στη συντριπτική πλειοψηφία τα πρόσωπα των γυναικών είναι ψεύτικα. Σε πολλά από τα βίντεο έχουν χρησιμοποιηθεί τα πρόσωπα διάσημων γυναικών, ηθοποιών, τραγουδιστών και άλλων, ενώ σε αρκετά άλλα έχουν χρησιμοποιηθεί τα πρόσωπα γυναικών της διπλανής πόρτας. Είναι μεγάλο ψυχολογικό πλήγμα για τις ανύποπτες γυναίκες, που ξαφνικά μαθαίνουν τυχαία ότι στο διαδίκτυο κυκλοφορεί πορνογραφικό υλικό που τις απεικονίζει. Και αν δεν μπορέσουν να αποδείξουν ότι είναι deepfake («βαθιά ψευδές», δηλαδή εξολοκλήρου κατασκευασμένο) τα πράγματα γίνονται ακόμα πιο δύσκολα, καθώς αυτό θα τις ακολουθεί σε όλη τους τη ζωή.
Χρειάζεται ανάλυση με εξειδικευμένα συστήματα, που και τα ίδια χρησιμοποιούν ΤΝ, για να βρεθούν ατέλειες στα deepfake βίντεο, εικόνες ή ηχητικά αποσπάσματα. Σε δοκιμή με χιλιάδες τέτοια υλικά, ως ψεύτικα εντοπίστηκαν μόνο τα δύο τρίτα απ' αυτά. Στο μέλλον ίσως γίνει ακόμα πιο δύσκολο έως αδύνατο να εντοπίζονται. Αλλά και σήμερα, όταν τελικά χαρακτηριστούν ψεύτικα, αυτό γίνεται εκ των υστέρων. Στο μεταξύ, το ψευδές μήνυμα ενδέχεται να έχει διαδοθεί ανεξέλεγκτα, χάρη και στα Μέσα Κοινωνικής Δικτύωσης (ΜΚΔ), και να έχει οδηγήσει σε χειραγωγημένες αντιδράσεις την κρίσιμη στιγμή. Μέσα σε ένα περιβάλλον όπου αυτό που βλέπεις και αυτό που ακούς μπορεί να είναι τελείως κατασκευασμένα, είναι δυνατόν σημαντική μερίδα όσων παρακολούθησαν το βίντεο να μην πιστέψουν την αποκάλυψη του ψεύδους. Από την άλλη μεριά, κάποιοι μπορεί να θεωρήσουν μάταιη την αναζήτηση αληθούς πληροφόρησης και να κλείσουν τα αυτιά και τα μάτια ακόμη και σε αληθινές ειδήσεις, που αποτυπώνονται στο χαρτί ή εμφανίζονται σε οθόνη, οι οποίες όμως είναι σημαντικές για διαμόρφωση μιας βασισμένης στην πραγματικότητα πολιτικής αντίληψης και γνώσης των εξελίξεων.
Κλοπή ταυτότητας
Η αλήθεια είναι ότι τα ΜΚΔ, επειδή επιδιώκουν τη μεγιστοποίηση της συμμετοχής, ώστε να αυξηθούν τα διαφημιστικά και άλλα κέρδη, ακόμη και πριν τα deepfake ήταν ιδανικό πλαίσιο για «φούσκες» προαγωγής και ενίσχυσης συγκεκριμένων αντιλήψεων μεταξύ ομοϊδεατών, και για αποδοχή και διασπορά παραπληροφόρησης και ψευδών ειδήσεων, οι οποίες - σε αντιδιαστολή με τα deepfake - μπορούν να ονομαστούν «ρηχά ψευδείς», καθώς δεν αντέχουν ούτε σε μια πρώτη εξέταση και θα έπρεπε να προκαλούν στον καθέναν ερωτήματα για την εγκυρότητα και την ακρίβειά τους.
Η δυνατότητα δημιουργίας deepfake βίντεο, όπου κάποιος, ενδεχομένως δημόσιο πρόσωπο, φέρεται να δηλώνει οτιδήποτε, με βάση τις στοχεύσεις των κατασκευαστών των βίντεο, αποτελεί κλοπή ταυτότητας. Το εμφανιζόμενο πρόσωπο μπορεί να δυσφημιστεί ή ακόμα και να γίνει στόχος επιθέσεων, αρκεί να έχει γίνει προσεκτική και όχι χονδροειδής διαμόρφωση των λεγόμενών του, κάτι που θα κινούσε υποψίες. Εχουν υπάρξει περιπτώσεις που έχει χρησιμοποιηθεί ακριβώς με αυτήν την έννοια, για απόσπαση πληροφοριών στο πλαίσιο του ανταγωνισμού μεταξύ εταιρειών, την πρόσβαση σε συστήματα αντίπαλων ομίλων κ.λπ.
Ρέπλικα
Σε μια άλλη εκδοχή των κινδύνων από τις εφαρμογές που βρίσκει σήμερα η ΤΝ, η εταιρεία «Replika» δίνει τη δυνατότητα σε κάθε ενδιαφερόμενο να ...κατασκευάσει τον ιδανικό chatbot - σύντροφο ή φίλο, με τον οποίο στην πορεία αναπόφευκτα συνδέεται συναισθηματικά, καθώς η συνομιλία φαίνεται να γίνεται με πραγματικό άνθρωπο, που είναι ακριβώς όπως θα τον ήθελε κανείς. Ετσι, όμως, ακόμη και άνθρωποι που σε κάποια φάση της ζωής τους έχουν έντονη ανάγκη ψυχολογικής υποστήριξης, δεν θα την αναζητήσουν σε πραγματικούς φίλους ή ειδικούς αλλά σε μορφές ΤΝ, που δεν καταλαβαίνουν τον κόσμο και τους ανθρώπους, παρά μόνο μπορούν να παράγουν κείμενο που τις κάνει να μοιάζουν σαν να τους καταλαβαίνουν. Με τέτοια χρήση της ΤΝ, η απομόνωση και αποξένωση μεγαλώνει και οι πραγματικοί άνθρωποι φαίνονται στον χρήστη υποδεέστεροι. Μπορεί να είναι όμως μια εθιστική χρήση, κερδοφόρα για την εταιρεία που βρίσκεται πίσω απ' αυτήν.
Απεικόνιση τρισδιάστατης αναδίπλωσης πρωτεϊνικού μορίου από το σύστημα Τεχνητής Νοημοσύνης AlphaFold2 της «DeepMind», που χρησιμοποιείται για την κατασκευή καινοτόμων φαρμάκων Αλλη όψη |
Η ΤΝ μπορεί να χρησιμοποιηθεί για το καλό των ανθρώπων στο σύνολό τους. Για παράδειγμα, η προ ολίγων ετών ανάπτυξη μιας εφαρμογής ΤΝ βαθιάς μηχανικής μάθησης, του AlphaFold2, που μπορεί να υπολογίσει πώς θα διπλωθεί στον τρισδιάστατο χώρο ένα τεράστιο πρωτεϊνικό μόριο, είναι εξαιρετικής σημασίας για την ιατρική και φαρμακολογική έρευνα. Οι επιστήμονες χρησιμοποιούν τώρα το AlphaFold2 για την κατασκευή πρωτεϊνών που δεν υπάρχουν στη φύση και έχουν λειτουργίες κατά παραγγελία, χρήσιμες π.χ. για την παρασκευή νέων, ευρύτερου φάσματος αντιιικών φαρμάκων. Γίνεται προσπάθεια να ενσωματωθούν σε αυτήν την τεχνολογία και παραγωγικά μοντέλα τύπου DALL-E 2 (φτιάχνει εικόνες) και ChatGPT (φτιάχνει κείμενα), ώστε να μπορεί να ζητηθεί από την ΤΝ να κατασκευάσει πρωτεΐνες με βάση τα επιθυμητά χαρακτηριστικά, χωρίς να χρειάζεται άνθρωποι να δοκιμάσουν διάφορες ακολουθίες αμινοξέων για να δουν αν προκύπτουν πρωτεΐνες με αυτά τα χαρακτηριστικά. Η έρευνα στον τομέα προχωρεί με εκρηκτικό ρυθμό. Η «DeepMind», θυγατρική της «Alphabet» («Google»), που πέτυχε τον άθλο του AlphaFold2, οπωσδήποτε είχε κατά νου και το χρήμα που θα έφερνε αυτή η τεχνολογία. Τώρα πάντως, στο πλαίσιο του ανταγωνισμού της «Google» με το άλλο μονοπώλιο, τη «Microsoft», αποφασίστηκε η ενσωμάτωση της ερευνητικής ομάδας της «DeepMind», που λειτουργούσε μέχρι τώρα με ορισμένη αυτοτέλεια, μέσα στην ομάδα ανάπτυξης ΤΝ chatbot του ομίλου. Σκοπός της ενσωμάτωσης είναι το Bard, το Μεγάλο Γλωσσικό Μοντέλο της «Google», να μπορέσει να ανταγωνιστεί και ίσως να ξεπεράσει το ChatGPT, που ενσωματώθηκε στην Bing, τη μηχανή αναζήτησης της «Microsoft».
Αιτία
Αν με τα σημερινά Μεγάλα Γλωσσικά Μοντέλα και τα αντίστοιχα συστήματα για παραγωγή εικόνων περιορισμένης (στενής) ΤΝ δεν μπορεί πάντα να διαπιστωθεί αν πίσω από ένα κείμενο ή μια εικόνα βρίσκεται ένας άνθρωπος ή ένα μηχάνημα, τι θα σήμαινε η δημιουργία Τεχνητής Γενικής Νοημοσύνης, δηλαδή μηχανών που θα μπορούν σε όλα τα ζητήματα και τους τομείς δραστηριότητας να «περάσουν» ως άνθρωποι και να εκτελέσουν εργασίες όπως οι άνθρωποι; Καθώς με επιταχυνόμενο ρυθμό η επιστημονική φαντασία γίνεται πραγματικότητα, έρχεται στο μυαλό μια ατάκα πρωταγωνιστή δημοφιλούς ταινίας επιστημονικής φαντασίας: «Οι επιστήμονές σας ήταν τόσο απασχολημένοι με το αν μπορούν, που δεν έκατσαν να σκεφτούν αν έπρεπε»... Ομως, ανεξάρτητα από την ευθύνη που έχουν ως μορφωμένοι και κατ' ελπίδα καλλιεργημένοι άνθρωποι, οι επιστήμονες δεν λειτουργούν σε κοινωνικό κενό. Διαπαιδαγωγούνται, εμπνέονται και - είτε το αντιλαμβάνονται είτε όχι - ωθούνται σε δράση από τον τρόπο οργάνωσης της κοινωνίας στην οποία ζουν, από τις σχέσεις παραγωγής που τη διέπουν. Η ανάπτυξη της ΤΝ προχωρά κατευθυνόμενα, με επένδυση δισεκατομμυρίων από τα μονοπώλια του ευρύτερου τομέα της πληροφορικής και των διαδικτυακών υπηρεσιών. Δεν εναπόκειται ούτε μόνο, ούτε κυρίως στις διαθέσεις των μεμονωμένων επιστημόνων. Οσοι με τον έναν ή τον άλλο τρόπο βρεθούν στο μέλλον αντιμέτωποι με αρνητικές συνέπειες εφαρμογών της ΤΝ, ας το ξέρουν καλά: Δεν έφταιξε η τεχνολογία. Ο καπιταλισμός έφταιξε. Το κυνήγι του κέρδους ήταν η αιτία.
Επιμέλεια:
Σταύρος ΞΕΝΙΚΟΥΔΑΚΗΣ
Πηγή: «Scientific American»
Πηγή:rizospastis.gr
Η Σφήκα: Επιλογές
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου