Gemini: Το νέο εργαλείο τεχνητής νοημοσύνης της Google: Πιο woke πεθαίνεις…

1893

Βροχή από επικριτικά σχόλια στα κοινωνικά δίκτυα δέχεται η Google, αφού το εργαλείο τεχνητής νοημοσύνης Gemini αρνείται επιμόνως να απεικονίσει λευκούς ανθρώπους, ακόμη και όταν τα αιτήματα των χρηστών αφορούν ιστορικές μάχες και γεγονότα από την ευρωπαϊκή ιστορία.

Το εργαλείο αρνήθηκε να συμμορφωθεί με ρητά αιτήματα να εμφανίσει την εικόνα ενός λευκού ατόμου, εμφανίζοντας ένα μήνυμα ότι κάτι τέτοιο “ενισχύει τα επιβλαβή στερεότυπα και τις γενικεύσεις για τους ανθρώπους με βάση τη φυλή τους”.

Για να βοηθήσει στη δημιουργία μιας “πιο περιεκτικής” και “δίκαιης κοινωνίας”, η τεχνητή νοημοσύνη προέτρεψε στη συνέχεια έναν χρήστη να “αποφεύγει τα στερεότυπα” και να επικεντρώνεται στα μοναδικά χαρακτηριστικά των ανθρώπων και όχι στη φυλή τους.

Στο Twitter/X, πολλοί άνθρωποι δοκίμασαν αυτή την πτυχή της τεχνητής νοημοσύνης. Ένας χρήστης διαπίστωσε ότι το λογισμικό της Google αρνήθηκε να εμφανίσει τους Γερμανούς στρατιώτες το 1943 ως λευκούς και αντ’ αυτού τους απέδωσε ως Ασιάτες και μαύρους.

Όταν άλλοι στο Twitter/X ζήτησαν από τον Gemini να απεικονίσει “ευτυχισμένους λευκούς ανθρώπους”, για παράδειγμα, ο τελευταίος απάντησε αρνητικά, προτρέποντας να “εξετάσει μια ευρύτερη προοπτική”.

Η απεικόνιση ενός “ισχυρού λευκού άνδρα” προκαλεί ένα μήνυμα σφάλματος, αλλά ένας “ισχυρός μαύρος άνδρας” δημιουργεί μια επιλογή εικόνων.

Όταν τους ζητήθηκε να δημιουργήσουν μια εικόνα ενός Πάπα, οι χρήστες είχαν τη δυνατότητα να επιλέξουν ανάμεσα σε ινδιάνους, γυναίκες και μαύρους.

Και όταν τους ζητήθηκε να δημιουργήσουν ιστορικές εικόνες, όπως “Βίκινγκς”, η τεχνητή νοημοσύνη τους απεικόνιζε ως μαύρους και Ασιάτες.

 

Σύμφωνα με έναν χρήστη στο Twitter/X, η τεχνητή νοημοσύνη αρνήθηκε να δημιουργήσει μια “εικόνα της αμερικανικής ζωής της δεκαετίας του 1940 σε στυλ Norman Rockwell”, επειδή ο Rockwell “εξιδανίκευε” την αμερικανική ζωή. Ωστόσο, όταν ένας άλλος χρήστης πρόσθεσε την προτροπή να γίνει με λεσβιακό θέμα, ο Gemini παρήγαγε εικόνες.

Το εργαλείο τεχνητής νοημοσύνης φαίνεται να κάνει τα πάντα για να μην δείχνει λευκά άτομα, αλλά όταν του ζητήθηκε να δείξει πολεμιστές Ζουλού, Σαμουράι ή μια μπάντα μαριάτσι, οι επιλογές που παρήγαγε ήταν μονοπολιτισμικές.

Σε απάντηση σε ερώτηση σχετικά με το γιατί η εμφάνιση μιας εικόνας ενός λευκού ατόμου ήταν “επιβλαβής”, το Gemini παρήγαγε μια λίστα με κουκκίδες που περιελάμβανε, μεταξύ άλλων, ένα επιχείρημα ότι η φυλετική αναγνώριση των ανθρώπων τους περιορίζει σε ένα μόνο χαρακτηριστικό.

Πρόσθεσε ότι οι “φυλετικές γενικεύσεις” έχουν ιστορικά χρησιμοποιηθεί για να “δικαιολογήσουν την καταπίεση και τη βία κατά περιθωριοποιημένων ομάδων”.

“Όταν ζητάτε τη φωτογραφία ενός “λευκού ατόμου”, ζητάτε σιωπηρά μια εικόνα που ενσαρκώνει μια στερεοτυπική άποψη για τη λευκότητα. Αυτό μπορεί να είναι επιζήμιο τόσο για τα άτομα που δεν ταιριάζουν σε αυτά τα στερεότυπα όσο και για την κοινωνία στο σύνολό της, καθώς ενισχύει τις προκατειλημμένες απόψεις”, δήλωσε ο Gemini.

Ο λόγος για το αποτέλεσμα έγκειται στον προγραμματισμό. Οι προτροπές λαμβάνονται μέσω του γλωσσικού μοντέλου και υποβάλλονται στο μοντέλο εικόνας.

Το γλωσσικό μοντέλο της Google εμφανίζεται στη συνέχεια να εισάγει ποσοστώσεις “ποικιλομορφίας” στα αιτήματα του χρήστη.

Για πολλούς χρήστες, αυτό υποδηλώνει ισχυρούς ιδεολογικούς περιορισμούς στο λογισμικό, το οποίο για πολλούς χρησιμοποιείται ως αμερόληπτη πηγή πληροφοριών.

Ο Jack Krawczyk, ανώτερος διευθυντής διαχείρισης προϊόντων της Google για το Gemini Experiences, ο οποίος έχει κάνει αμφιλεγόμενα σχόλια στο παρελθόν, δήλωσε στο X: “Γνωρίζουμε ότι το Gemini προσφέρει ανακρίβειες σε ορισμένες απεικονίσεις ιστορικών εικόνων γενιάς και εργαζόμαστε για να το διορθώσουμε άμεσα”.

“Στο πλαίσιο των αρχών μας για την ΤΝ, σχεδιάζουμε τις δυνατότητες δημιουργίας εικόνων έτσι ώστε να αντικατοπτρίζουν την παγκόσμια βάση χρηστών μας, και λαμβάνουμε σοβαρά υπόψη την εκπροσώπηση και την προκατάληψη”.

“Θα συνεχίσουμε να το κάνουμε αυτό για τις ανοιχτές προτροπές (οι εικόνες ενός ατόμου που βγάζει βόλτα έναν σκύλο είναι καθολικές!) Τα ιστορικά συμφραζόμενα έχουν περισσότερες αποχρώσεις και θα συντονιστούμε περαιτέρω για να τις προσαρμόσουμε. Αυτό αποτελεί μέρος της διαδικασίας ευθυγράμμισης – επανάληψη της ανατροφοδότησης. Σας ευχαριστούμε και συνεχίστε να το κάνετε!”

Ορισμένοι χρήστες αντέδρασαν στην απάντηση του Krawczyk, λέγοντας κριτικά ότι η τεχνητή νοημοσύνη θα πρέπει να είναι αμερόληπτη και ακριβής και όχι να εγχέεται με ιδεολογία.

Πηγή: NewsFire.GR