Social & Tech 06.11.2025

Τέλος οι ιατρικές διαγνώσεις και οι νομικές συμβουλές από το ChatGPT

Η OpenAI σταματά οριστικά τη δυνατότητα παροχής ιατρικών, νομικών και οικονομικών οδηγιών επικαλούμενη την ασφάλεια και τη νομική ευθύνη
Ιωάννα Ανδριοπούλου

Η OpenAI, η εταιρεία πίσω από το ChatGPT, ανακοίνωσε στις 29 Οκτωβρίου 2025 ότι απαγορεύει πλέον στο δημοφιλές chatbot την παροχή εξειδικευμένων ιατρικών, νομικών και οικονομικών συμβουλών. Η απόφαση προέκυψε ύστερα από αυξανόμενες ανησυχίες για την ασφάλεια και την υγεία των χρηστών και τον κίνδυνο νομικής ευθύνης που συνεπάγεται η χρήση τεχνητής νοημοσύνης σε θέματα υψηλού ρίσκου.

Με τη νέα πολιτική, ο ρόλος του ChatGPT περιορίζεται αποκλειστικά σε εκπαιδευτικό εργαλείο. Το σύστημα μπορεί να εξηγεί αρχές, θεωρίες και διαδικασίες, ωστόσο οι χρήστες ενθαρρύνονται να συμβουλεύονται πιστοποιημένους επαγγελματίες για προσωπικές αποφάσεις. Η αλλαγή αυτή έρχεται ως απάντηση σε σειρά περιστατικών βλάβης που συνδέθηκαν με συμβουλές του chatbot, αλλά και εν μέσω αυστηρότερου ρυθμιστικού ελέγχου στην Ευρώπη, την Ινδία και τη Βόρεια Αμερική.

www.freepik.com

Διάβασε επίσης: Το Spotify αφαίρεσε 75 εκατ. τραγούδια που «συνέθεσε» τεχνητή νοημοσύνη

Η απόφαση θεωρείται συνέπεια πολλαπλών αναφορών για επικίνδυνες επιπτώσεις από τη χρήση συμβουλών τεχνητής νοημοσύνης. Σε ένα χαρακτηριστικό περιστατικό, ένας εξηντάχρονος άνδρας νοσηλεύτηκε επί τρεις εβδομάδες ύστερα από σύσταση του chatbot να αντικαταστήσει το επιτραπέζιο αλάτι με βρωμιούχο νάτριο, με αποτέλεσμα να εμφανίσει ψευδαισθήσεις και παρανοϊκή συμπεριφορά. Άλλες περιπτώσεις περιλάμβαναν εσφαλμένες ιατρικές εκτιμήσεις, λανθασμένα νομικά έγγραφα και ακατάλληλες οικονομικές στρατηγικές, γεγονός που προκάλεσε την αντίδραση επαγγελματικών ενώσεων και οργανώσεων χρηστών.

Τα μέσα κοινωνικής δικτύωσης καταγράφουν εκατοντάδες περιστατικά, από καθυστερημένες διαγνώσεις ασθενειών έως νομικά προβλήματα λόγω γενικών προτύπων συμβολαίων που παράχθηκαν από το chatbot. Οι ιστορίες αυτές, παρότι δείχνουν τη χρησιμότητα και την προσβασιμότητα των συστημάτων τεχνητής νοημοσύνης, επιβεβαιώνουν την ανάγκη σαφών ορίων στη χρήση τους, ιδίως σε τομείς που απαιτούν αδειοδοτημένη επαγγελματική γνώση.

www.freepik.com

Η OpenAI επισημαίνει πως στόχος της είναι η «ενίσχυση της ασφάλειας των χρηστών και η πρόληψη πιθανής βλάβης», μετατοπίζοντας το επίκεντρο του ChatGPT από την παροχή εξατομικευμένων συμβουλών στη μετάδοση γενικών γνώσεων. Σύμφωνα με τους ανανεωμένους όρους χρήσης, το ChatGPT δεν επιτρέπεται να προτείνει φάρμακα ή δοσολογίες, να συντάσσει νομικά έγγραφα ή να παρέχει επενδυτικές κατευθύνσεις.

Η νέα πολιτική αντικατοπτρίζει μια ευρύτερη τάση αυστηροποίησης των κανόνων γύρω από την τεχνητή νοημοσύνη. Η Ευρωπαϊκή Ένωση βρίσκεται ένα βήμα πριν την ψήφιση του νόμου «Artificial Intelligence Act», που προβλέπει αυξημένη διαφάνεια και ευθύνη για ζημίες που προκαλούν οι υπηρεσίες τεχνητής νοημοσύνης. Στην Ινδία εξετάζονται κανόνες για τη διαχείριση συνθετικών δεδομένων και την ευθύνη αλγορίθμων, ενώ στις Ηνωμένες Πολιτείες οι αρχές καταναλωτικής προστασίας διερευνούν ήδη περιπτώσεις παραπλανητικών συμβουλών που επηρέασαν ευάλωτες κοινωνικές ομάδες.

ChatGPT: Κύμα αρνητικών σχολίων για το νέο μοντέλο GPT-5 της OpenAI

Οι αναλυτές εκτιμούν ότι η απόφαση της OpenAI σηματοδοτεί την αποδοχή ενός νέου βιομηχανικού προτύπου, όπου «η εκπαίδευση, και όχι η συμβουλευτική, αποτελεί τον ασφαλέστερο ρόλο των γενικής χρήσης συστημάτων τεχνητής νοημοσύνης». Παρόμοιοι περιορισμοί αναμένεται να υιοθετηθούν και από άλλες εταιρείες, στο πλαίσιο μιας ευρύτερης προσπάθειας περιορισμού των νομικών κινδύνων.

Η εταιρεία επικαιροποίησε επίσης τους όρους χρήσης της, απαγορεύοντας «οποιαδήποτε μορφή συμβουλευτικής που απαιτεί επαγγελματική πιστοποίηση», καθώς και την αναγνώριση προσώπων χωρίς συναίνεση ή την ακαδημαϊκή απάτη μέσω τεχνητής νοημοσύνης.

Κεντρική φωτογραφία: www.freepik.com

Διάβασε επίσης: Η τεχνητή νοημοσύνη «ανασταίνει» το χαμένο αριστούργημα του Orson Welles

Δες κι αυτό…

Για σχόλια, μηνύματα ή φωτογραφικό υλικό σχετικά με το Mad.gr, επισκεφτείτε μας στο Facebook, επικοινωνήστε μέσω Twitter ή ακολουθήστε μας στο Instagram.

Μοιράσου αυτό το άρθρο

Δες επίσης