Το ChatGPT καταστρέφει 30 ετών καριέρα δικηγόρου, δεν έφταιγε η AI

Μοίρασε την γνώση...

Τελικά, η AI είναι επικίνδυνη για τον άνθρωπο ή αυτός τη χρησιμοποιεί λάθος; Η AI είναι ένα εργαλείο για να βελτιώσει και να επιταχύνει ο άνθρωπος τη δουλειά του ή ένας “σκλάβος” που κάνει τη δουλειά του ανθρώπου για αυτόν; Οι απόψεις διίστανται, αν και δεν θα έπρεπε. Ο έμπειρος δικηγόρος Steven Schwartz της Levidow & Oberman έχει βρεθεί στη δύσκολη θέση η καριέρα του να εξαρτάται από το ChatGPT.
Το δημοφιλές chatbot τεχνητής νοημοσύνης της OpenAI κατασκεύασε μια σειρά από φανταστικές νομικές υποθέσεις τις οποίες ο Schwartz επικαλέστηκε σε μια πρόσφατη υπόθεση. Το περιστατικό αυτό, το οποίο θα μπορούσε δυνητικά να εκτροχιάσει την 30 ετή καριέρα του Schwartz, χρησιμεύει ως ένα αρκετά καλό παράδειγμα σχετικά με τα πιθανά μειονεκτήματα του να βασίζεται κανείς αποκλειστικά στην τεχνολογία AI.ChatGPT AI Lawyer

banner

Η υπόθεση που βρίσκεται στο επίκεντρο αυτής της διαμάχης είναι αυτή της Mata κατά Avianca, όπου ένας πελάτης ονόματι Roberto Mata μήνυσε την αεροπορική εταιρεία αφού τραυματίστηκε στο γόνατο κατά τη διάρκεια μιας πτήσης από ένα καρότσι σερβιρίσματος. Καθώς οι δικηγόροι του Mata προσπαθούσαν να αντιμετωπίσουν την προσπάθεια της Avianca να απορρίψει την υπόθεση, υπέβαλαν ένα υπόμνημα που παρέπεμπε σε διάφορες προηγούμενες δικαστικές αποφάσεις. Ο Schwartz, εκπροσωπώντας τον Mata, απευθύνθηκε στο ChatGPT για να συμπληρώσει τη δική του έρευνα και να παράσχει πρόσθετα παραδείγματα.
Αντ’ αυτού, το ChatGPT δημιούργησε έναν κατάλογο με φανταστικές υποθέσεις, όπως Varghese κατά China Southern Airlines, Shaboon κατά Egyptair, Petersen κατά Iran Air, Martinez κατά Delta Airlines, Estate of Durden κατά KLM Royal Dutch Airlines, και Miller κατά United Airlines. Αυτές οι υποθέσεις κατασκευάστηκαν εξ ολοκλήρου από το AI chatbot. Βέβαια, παίζει μεγάλο ρόλο τα ακριβή prompts που έδωσε ο Schwartz στο chatbot.
Τόσο η νομική ομάδα της Avianca όσο και ο προεδρεύων δικαστής ανακάλυψαν γρήγορα ότι αυτές οι αναφερόμενες υποθέσεις δεν υπήρχαν. Σε ένορκη κατάθεση, ο Schwartz παραδέχθηκε ότι άθελά του βασίστηκε στις ψευδείς πληροφορίες που παρήγαγε το ChatGPT. Ο δικηγόρος παρουσίασε ακόμη και στιγμιότυπα οθόνης από τις αλληλεπιδράσεις του με το chatbot, όπου ζήτησε επιβεβαίωση της γνησιότητας των υποθέσεων και έλαβε παραπλανητικές απαντήσεις.
Το περιστατικό αυτό αναδεικνύει τους πιθανούς κινδύνους που συνδέονται με την τυφλή εμπιστοσύνη στην ΑΙ. Αν και τα εργαλεία AI μπορούν αναμφίβολα να βελτιώσουν την ταχύτητα και την αποτελεσματικότητα των εργασιών, η ανθρώπινη εποπτεία και η κριτική σκέψη παραμένουν ζωτικής σημασίας για τη διασφάλιση της ακρίβειας και της αξιοπιστίας των πληροφοριών που παρέχουν εργαλεία όπως το ChatGPT.

ΠΗΓΗ

Google news

Μοίρασε την γνώση...

Στο site χρησιμοποιούμε affiliate links, απ’ όπου εμείς παίρνουμε κάποια προμήθεια, ενώ για εσάς δεν σας κοστίζει ΤΙΠΟΤΑ επιπλέον. Αντιθέτως, έτσι μπορούμε να φέρνουμε προϊόντα για παρουσίαση, που μετά τα κερδίζετε εσείς σε διαγωνισμούς που κάνουμε στο site.


Μην ξεχάσετε να γραφτείτε στο newsletter μας!


Εσείς πάντως μην ξεχάσετε να γραφτείτε στις ειδοποιήσεις μας , ώστε να ενημερωθείτε πρώτοι, να κάνετε Like & Share την σελίδα μας στο Facebook  ή να γραφτείτε στο κανάλι μας στο Telegram . Μπορείτε επίσης να γραφτείτε και στο κανάλι του iTechNews.gr στο  Youtube, όπου μπορείτε να βρείτε πάρα πολλές παρουσιάσεις που έχουμε κάνει! Μην ξεχάσετε να δείτε πως θα μπορείτε να βρείτε όλα τα άρθρα μας στις ειδήσεις της Google.


Ενημέρωση για αγορές από Κίνα και χρεώσεις μετά την 01/07/2021!

admitad affiliatebanggoodaliexprerss
cafagotomtop

Στην περίπτωση που θέλετε ν’ αντιγράψετε ή να χρησιμοποιήσετε μέρος ή ολόκληρο το άρθρο, μπορείτε να το κάνετε εφόσον αναφέρετε σαν πηγή το iTechNews.gr.



Διαφήμιση

Written by 

Σχετικά άρθρα

Αφήστε ένα σχόλιο

Βρείτε μας στις ειδήσεις της Google

TikTokTelegram