Η ΑΙ δεν κρατάει μυστικά – “Προσέξτε τι λέτε σε chatbots όπως το ChatGPT”

Διαβάζεται σε 2'
Η ΑΙ δεν κρατάει μυστικά – “Προσέξτε τι λέτε σε chatbots όπως το ChatGPT”
Φωτογραφία αρχείου iStock

Όσο εντυπωσιακά ικανή είναι η τεχνητή νοημοσύνη, άλλο τόσο… επικίνδυνη μπορεί να γίνει. Κι αυτό φαίνεται να επιβεβαιώνεται και από ειδικούς, που προειδοποιούν “να μην λέμε τα μυστικά μας” σε chatbots, όπως το ChatGPT.

Είναι γεγονός ότι η τεχνητή νοημοσύνη και ιδιαίτερα, το ChatGPT, έχει “λύσει” τα χέρια πολλών χρηστών, που πλέον το έχουν εντάξει και στην καθημερινότητά τους.

Τα πράγματα ωστόσο, δεν φαίνεται να είναι και τόσο ρόδινα. Κι αυτό αφήνουν να εννοηθούν οι προειδοποιήσεις αρκετών ειδικών, που γνωρίζουν τα “μυστικά” της τεχνητής νοημοσύνης.

Τελευταία αυτή του Mike Wooldridge, καθηγητή Τεχνητής Νοημοσύνης στο Πανεπιστήμιο της Οξφόρδης, ο οποίος προειδοποιεί ότι το να εμπιστευόμαστε το ChatGPT σχετικά με τα προβλήματα εργασίας ή τις πολιτικές προτιμήσεις, θα μπορούσε να “γυρίσει μπούμερανγκ” στους χρήστες.

Μάλιστα, χαρακτήρισε “εξαιρετικά παράλογο” το γεγονός οι χρήστες να μοιράζονται τόσο προσωπικές πληροφορίες με ένα τέτοιο σύστημα, αφού οτιδήποτε αποκαλυφθεί βοηθά στην εκπαίδευση μελλοντικών εκδόσεων.

Οι χρήστες δεν πρέπει επίσης να περιμένουν μια ρεαλιστική απάντηση στα σχόλιά τους, καθώς η τεχνολογία “σας λέει αυτό που θέλετε να ακούσετε”.

Ο Wooldridge είπε στη Daily Mail ότι, ενώ οι άνθρωποι ήταν προγραμματισμένοι να αναζητούν συνείδηση ​​στην τεχνητή νοημοσύνη, ήταν μια μάταιη προσπάθεια. Η τεχνητή νοημοσύνη “δεν έχει ενσυναίσθηση. Δεν έχει συμπάθεια”.

“Αυτό δεν είναι απολύτως αυτό που κάνει η τεχνολογία και το σημαντικότερο, δεν έχει βιώσει ποτέ τίποτα”, πρόσθεσε. “Η τεχνολογία είναι βασικά σχεδιασμένη για να προσπαθεί να σας πει αυτό που θέλετε να ακούσετε – αυτό είναι κυριολεκτικά το μόνο που κάνει”.

Ροή Ειδήσεων

Περισσότερα