ChatGPT: Κατηγόρησε ψευδώς καθηγητή Νομικής για σεξουαλική επίθεση
«Θα δούμε πολλές τέτοιες υποθέσεις, και τα δικαστήρια θα αναγκαστούν να ακολουθήσουν πολύ γρήγορα τις τεχνολογικές εξελίξεις»

Το ChatGPT κατηγόρησε ψευδώς έναν διακεκριμένο καθηγητή νομικής ότι παρενόχλησε μία από τις φοιτήτριές του και η υπόθεση καταδεικνύει τους κινδύνους της Τεχνητής Νοημοσύνης.

Ο Τζόναθαν Τάρλεϊ, του Πανεπιστημίου του Τζόρτζταουν, δήλωσε ότι οι κατηγορίες διατυπώθηκαν από το λογισμικό κατά τη διάρκεια έρευνας που έκανε ένας άλλος καθηγητής. Το λογισμικό ισχυρίστηκε ότι ο Τάρλεϊ προέβη σε σεξουαλικά υπονοούμενα και προσπάθησε να αγγίξει απρεπώς μια φοιτήτρια κατά τη διάρκεια εκπαιδευτικού ταξιδιού στην Αλάσκα. Μάλιστα, ανέφερε ένα άρθρο από τη Washington Post ως αποδεικτικό στοιχείο.

Ο Τάρλεϊ έγραψε στη USA Today: «Αρχικά ήταν έκπληξη για μένα, επειδή δεν έχω πάει ποτέ στην Αλάσκα με φοιτητές μου. Η Post δεν δημοσίευσε ποτέ ένα τέτοιο άρθρο και δεν έχω κατηγορηθεί ποτέ για σεξουαλική παρενόχληση ή επίθεση ή οτιδήποτε σχετικό. Οταν μου το είπαν, βρήκα την κατηγορία κωμική. Μετά από σκέψη, όμως, κατάλαβα ότι είναι κάτι πολύ απειλητικό».

Πριν από λίγες ημέρες, ένας δήμαρχος στην Αυστραλία απείλησε με μήνυση για συκοφαντική δυσφήμιση την OpenAI, τη δημιουργό εταιρία του ChatGPT, καθώς το λογισμικό ισχυρίστηκε ότι ο ίδιος έχει φυλακιστεί στο παρελθόν για δωροδοκία, σύμφωνα με τους Times. Την περασμένη Παρασκευή η Ιταλία απαγόρευσε το ChatGPT όταν βρέθηκαν ενδείξεις ότι η OpenAI επεξεργαζόταν παράνομα προσωπικά δεδομένα και πληροφορίες.

«Οι πληροφορίες που δίνει το ChatGPT δεν ανταποκρίνονται πάντα στην πραγματικότητα» δήλωσε κρατικός αξιωματούχος. Τα λογισμικά Τεχνητής Νοημοσύνης, όπως το ChatGPT, είναι μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται πάνω σε δισεκατομμύρια λέξεις που συλλέγονται από το Διαδίκτυο. Γράφουν προβλέποντας την επόμενη λέξη της πρότασης βασιζόμενα σε ένα στατιστικό μοντέλο, αλλά αυτό συχνά παράγει λάθη που ονομάζονται «παραισθήσεις».

Η τάση για παραισθήσεις αναγνωρίζεται από την OpenAI και άλλες εταιρείες όπως η Microsoft και η Google, οι οποίες αναγράφουν εμφανείς δηλώσεις αποποίησης ευθύνης για τους χρήστες στο λογισμικού. Στην περίπτωση του Τάρλεϊ, ο Γιουτζίν Βόλοχ, καθηγητής Νομικής στο UCLA, έκανε έρευνα ακριβώς πάνω στη συκοφαντική δυσφήμιση που ξεκινά από την Τεχνητή Νοημοσύνη και ζήτησε από το ChatGPT να του δώσει έναν κατάλογο με νομικούς που έχουν διαπράξει σεξουαλική παρενόχληση.

Το λογισμικό έδωσε πέντε απαντήσεις, τρεις από τις οποίες ήταν ψευδείς, και αναφέρθηκε σε ανύπαρκτα άρθρα στην Post, τη Miami Herald και τους Los Angeles Times. Δίπλα στο όνομα του Τάρλεϊ ήταν μια αναφορά σε «άρθρο της Washington Post της 21ης Μαρτίου 2018». Το άρθρο δεν υπάρχει και δεν υπήρξε ποτέ. Η ίδια η Washington Post, έγραψε στη συνέχεια ολόκληρο άρθρο για το τι συμβαίνει όταν το ChatGPT λέει ψέματα για αληθινούς ανθρώπους. Ο Τομ Κλέαρ, δικηγόρος που ειδικεύεται σε υποθέσεις συκοφαντικής δυσφήμισης, δήλωσε ότι η νομοθεσία έχει πολλά κενά σε σχέση με την τεχνολογία. «Θα δούμε πολλές τέτοιες υποθέσεις, τουλάχιστον στις ΗΠΑ, και τα δικαστήρια θα αναγκαστούν να ακολουθήσουν πολύ γρήγορα τις τεχνολογικές εξελίξεις» εξήγησε.

Ανέφερε ότι αυτοί που κινδυνεύουν περισσότερο να μηνυθούν είναι εκείνοι που ζήτησαν την πληροφορία από το λογισμικό και όσοι  δημοσίευσαν τα αποτελέσματα. Η OpenAI θα πρέπει να μηνυθεί σύμφωνα με τους νόμους περί ευθύνης προϊόντων, αντί για συκοφαντική δυσφήμιση, επειδή θα προστατεύεται σύμφωνα με το άρθρο 230 του νόμου περί Ευπρέπειας των Επικοινωνιών. Πιστεύει ότι μια μήνυση κατά της OpenAI θα είναι μια πολύ δύσκολη νομική κίνηση.

Η Εμα Γούλκοτ, επικεφαλής του τμήματος προστασίας της φήμης στο δικηγορικό γραφείο Mishcon de Reya, είπε ότι το λογισμικό έχει τα χαρακτηριστικά των πρώτων ημερών της Wikipedia: «Επειδή δημιουργεί περιεχόμενο από πηγές που είναι διαθέσιμες στο Διαδίκτυο, οι αναγνώστες μπορεί κάλλιστα να υποθέσουν ότι όσα γράφει είναι αλήθεια. Ενώ το OpenAI προειδοποιεί ότι η νέα τεχνολογία του μπορεί να δημιουργήσει “ανακριβή ή παραπλανητικά” αποτελέσματα, υπάρχει πραγματικός κίνδυνος οι άνθρωποι να βασιστούν σε αυτήν και οι συκοφαντικοί ισχυρισμοί που δημιουργούνται από την Τεχνητή Νοημοσύνη να προκαλέσουν σοβαρή βλάβη στη φήμη ενός ατόμου».

Η Open AI δημοσίευσε την Πέμπτη ένα κείμενο για την προσέγγισή της στο ζήτημα της ασφάλειας. «Πρέπει να γίνει πολλή δουλειά ακόμη για να μειώσουμε κι άλλο την πιθανότητα λαθών και παραισθήσεων και να εκπαιδεύσουμε το κοινό πάνω στους περιορισμούς των εργαλείων της Τεχνητής Νοημοσύνης». Η εταιρεία προσέθεσε ότι προχώρησε σε κάποιες ρυθμίσεις στα λογισμικά της, έτσι ώστε να απορρίπτουν τα αιτήματα για προσωπικές πληροφορίες.

 

Με πληροφορίες από dailymail.co.uk

Διαβάστε ακόμη:

ΤΕΛΕΥΤΑΙΑ VIDEOS - ΒΛΕΠΟΥΝ ΟΛΟΙ

JOBS

Χιλιάδες Θέσεις Εργασίας σε όλη την Ελλάδα

Πωλήσεις

Πλήρης Απασχόληση

15-02-2024

Νέα Σμύρνη

⚽🏀 LIVE SCORES
09 Μαϊ. 2024
Ολυ
18'
1 - 0
Ast
09 Μαϊ. 2024
Ατα
18'
0 - 0
Oly

ΠΩΣ ΣΟΥ ΦΑΝΗΚΕ ΤΟ ΑΡΘΡΟ;