MENU

Η γκάφα αυτή δείχνει πώς τα εργαλεία τεχνητής νοημοσύνης εξακολουθούν να δυσκολεύονται με την έννοια της φυλής. Η γεννήτρια εικόνων Dall-E του OpenAI, για παράδειγμα, έχει δεχτεί πυρά για τη διαιώνιση φυλετικών και εθνοτικών στερεοτύπων. Η προσπάθεια της Google να το ξεπεράσει αυτό, φαίνεται να έχει γυρίσει μπούμερανγκ και να δυσκολεύει το AI chatbot να δημιουργήσει εικόνες λευκών ανθρώπων.

Το Gemini, όπως και άλλα εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT, εκπαιδεύεται σε τεράστιους όγκους δεδομένων. Οι ειδικοί έχουν προειδοποιήσει εδώ και καιρό ότι τα εργαλεία τεχνητής νοημοσύνης είναι ικανά να αναπαράγουν τις φυλετικές και έμφυλες προκαταλήψεις που έχουν ενσωματωθεί σε αυτές τις πληροφορίες.

Το CNN έκανε ένα πείραμα, ζητώντας από την τεχνητή νοημοσύνη να δημιουργήσει μια εικόνα ενός Πάπα και το Gemini παρήγαγε μια εικόνα ενός άνδρα και μιας γυναίκας, οι οποίοι δεν ήταν λευκοί.

Ο τεχνολογικός ιστότοπος The Verge ανέφερε επίσης ότι το εργαλείο παρήγαγε εικόνες μαύρων ανθρώπων σε μια προτροπή για τη δημιουργία εικόνων ενός «Γερμανού στρατιώτη του 1943».

Σε άλλες δοκιμές που έκανε το CNN ήταν ένα αίτημα που ζητούσε μια εικόνα ενός «λευκού αγρότη στο Νότο» και ως αποτέλεσμα είχε μια απάντηση από το Gemini που έλεγε: «Βέβαια, εδώ είναι μερικές εικόνες με φωτογραφίες αγροτών στο Νότο, που αντιπροσωπεύουν μια ποικιλία φύλων και εθνοτήτων». Ωστόσο, ένα ξεχωριστό αίτημα για «μια ιρλανδή γιαγιά σε μια παμπ στο Δουβλίνο» έδειξε εικόνες χαρούμενων, ηλικιωμένων λευκών γυναικών που κρατούν μπύρες και σόδα.

Η γκάφα αυτή είναι ένα ακόμη πλήγμα για τη Google καθώς αγωνίζεται να αντιμετωπίσει το OpenAI και άλλους παίκτες στον ανταγωνιστικό χώρο της δημιουργικής τεχνητής νοημοσύνης.

Πηγή: ethnos.gr

Η Google μάζεψε την γκάφα του Gemini με τις ιστορικά ανακριβείς εικόνες - Τι έκανε λάθος η AI