Τελικά, η AI είναι επικίνδυνη για τον άνθρωπο ή αυτός τη χρησιμοποιεί λάθος; Η AI είναι ένα εργαλείο για να βελτιώσει και να επιταχύνει ο άνθρωπος τη δουλειά του ή ένας “σκλάβος” που κάνει τη δουλειά του ανθρώπου για αυτόν; Οι απόψεις διίστανται, αν και δεν θα έπρεπε. Ο έμπειρος δικηγόρος Steven Schwartz της Levidow & Oberman έχει βρεθεί στη δύσκολη θέση η καριέρα του να εξαρτάται από το ChatGPT.
Το δημοφιλές chatbot τεχνητής νοημοσύνης της OpenAI κατασκεύασε μια σειρά από φανταστικές νομικές υποθέσεις τις οποίες ο Schwartz επικαλέστηκε σε μια πρόσφατη υπόθεση. Το περιστατικό αυτό, το οποίο θα μπορούσε δυνητικά να εκτροχιάσει την 30 ετή καριέρα του Schwartz, χρησιμεύει ως ένα αρκετά καλό παράδειγμα σχετικά με τα πιθανά μειονεκτήματα του να βασίζεται κανείς αποκλειστικά στην τεχνολογία AI.
Η υπόθεση που βρίσκεται στο επίκεντρο αυτής της διαμάχης είναι αυτή της Mata κατά Avianca, όπου ένας πελάτης ονόματι Roberto Mata μήνυσε την αεροπορική εταιρεία αφού τραυματίστηκε στο γόνατο κατά τη διάρκεια μιας πτήσης από ένα καρότσι σερβιρίσματος. Καθώς οι δικηγόροι του Mata προσπαθούσαν να αντιμετωπίσουν την προσπάθεια της Avianca να απορρίψει την υπόθεση, υπέβαλαν ένα υπόμνημα που παρέπεμπε σε διάφορες προηγούμενες δικαστικές αποφάσεις. Ο Schwartz, εκπροσωπώντας τον Mata, απευθύνθηκε στο ChatGPT για να συμπληρώσει τη δική του έρευνα και να παράσχει πρόσθετα παραδείγματα.
Αντ’ αυτού, το ChatGPT δημιούργησε έναν κατάλογο με φανταστικές υποθέσεις, όπως Varghese κατά China Southern Airlines, Shaboon κατά Egyptair, Petersen κατά Iran Air, Martinez κατά Delta Airlines, Estate of Durden κατά KLM Royal Dutch Airlines, και Miller κατά United Airlines. Αυτές οι υποθέσεις κατασκευάστηκαν εξ ολοκλήρου από το AI chatbot. Βέβαια, παίζει μεγάλο ρόλο τα ακριβή prompts που έδωσε ο Schwartz στο chatbot.
Τόσο η νομική ομάδα της Avianca όσο και ο προεδρεύων δικαστής ανακάλυψαν γρήγορα ότι αυτές οι αναφερόμενες υποθέσεις δεν υπήρχαν. Σε ένορκη κατάθεση, ο Schwartz παραδέχθηκε ότι άθελά του βασίστηκε στις ψευδείς πληροφορίες που παρήγαγε το ChatGPT. Ο δικηγόρος παρουσίασε ακόμη και στιγμιότυπα οθόνης από τις αλληλεπιδράσεις του με το chatbot, όπου ζήτησε επιβεβαίωση της γνησιότητας των υποθέσεων και έλαβε παραπλανητικές απαντήσεις.
Το περιστατικό αυτό αναδεικνύει τους πιθανούς κινδύνους που συνδέονται με την τυφλή εμπιστοσύνη στην ΑΙ. Αν και τα εργαλεία AI μπορούν αναμφίβολα να βελτιώσουν την ταχύτητα και την αποτελεσματικότητα των εργασιών, η ανθρώπινη εποπτεία και η κριτική σκέψη παραμένουν ζωτικής σημασίας για τη διασφάλιση της ακρίβειας και της αξιοπιστίας των πληροφοριών που παρέχουν εργαλεία όπως το ChatGPT.