Η αποκάλυψη στο ChatGPT των παραπόνων που έχουμε από τη δουλειά μας ή των πολιτικών προτιμήσεών μας θα μπορούσε να γυρίσει μπούμερανγκ στους χρήστες, τονίζει εμπειρογνώμονας τεχνητής νοημοσύνης.

Ο καθηγητής Τεχνητής Νοημοσύνης στο Πανεπιστήμιο της Οξφόρδης Μάικ Γούλντριτζ λέει ότι το να μοιράζεσαι προσωπικές πληροφορίες ή να έχεις στενές επαφές με ένα chatbot θα ήταν «εξαιρετικά απερίσκεπτο», καθώς βοηθά στην εκπαίδευση μελλοντικών μοντέλων.

Οι χρήστες δεν θα πρέπει να περιμένουν ούτε μια ισορροπημένη απάντηση στα σχόλιά τους, καθώς η τεχνολογία «κυριολεκτικά λέει μόνο αυτό που θέλετε να ακούσετε».

Σε μια σειρά διαλέξεων, όπως αναφέρει ο Guardian, ο καθηγητής θα εξηγήσει ότι, ενώ οι άνθρωποι προγραμματίστηκαν να αναζητήσουν συνείδηση στην τεχνητή νοημοσύνη, ήταν μια μάταιη προσπάθεια. Η τεχνητή νοημοσύνη, λέει ο ίδιος «δεν έχει καμία ενσυναίσθηση».

Οι χρήστες των μοντέλων όπως το ChatGPT θα πρέπει να υποθέτουν ότι «ο,τιδήποτε πληκτρολογείτε στο ChatGPT θα τροφοδοτεί μελλοντικές εκδόσεις του ChatGPT» και ότι η ανάκληση δεν είναι επιλογή.

techit.gr

(function(d, s, id){var js, fjs = d.getElementsByTagName(s)[0];if (d.getElementById(id)) return;js = d.createElement(s); js.id = id;js.src = “//connect.facebook.net/en_US/sdk.js#xfbml=1&version=v2.0”;fjs.parentNode.insertBefore(js, fjs);}(document, ‘script’, ‘facebook-jssdk’));
//

ΠΗΓΗ

Προηγούμενο άρθροΜενδώνη: Τεράστια η ιστορική και αρχαιολογική αξία του Ανακτόρου του Φιλίππου Β΄ στις Αιγές
Επόμενο άρθροΦήμες για ανασχηματισμό της Κυβέρνησης ακόμη και εντός της ημέρας