Google: Ανακοίνωσε νέα εργαλεία εντοπισμού AI εικόνων και ψευδών ειδήσεων!


Google: Ανακοίνωσε νέα εργαλεία εντοπισμού AI εικόνων και ψευδών ειδήσεων!

Η Google λανσάρει 3 νέα εργαλεία για τον εντοπισμό εικόνων τεχνητής νοημοσύνης (AI) και ψευδών ειδήσεων.

Τα 3 νέα εργαλεία θα εμφανίζονται στην Αναζήτηση έτσι ώστε να σας βοηθήσουν να βρείτε τις σωστές πληροφορίες και να αποφύγετε τα “κακώς κείμενα” όσο αφορά φωτογραφίες που ενδεχομένως έχουν δημιουργηθεί από τεχνητή νοημοσύνη (AI). Το εργαλείο “about me” της εταιρίας έχει ήδη ανακοινωθεί και είναι διαθέσιμο προς το παρόν στην Αγγλική γλώσσα και στους χρήστες των ΗΠΑ. Δείτε εδώ περισσότερα. Ακολουθεί ένα παράδειγμα του εργαλείου about me παρακάτω:

Πλέον, η εταιρία πάει την τεχνολογία ένα βήμα παραπέρα για αποτελεσματικότερο εντοπισμό ψεύτικων εικόνων αλλά και ψευδών ειδήσεων. Η βελτιωμένη αναζήτησή (Google) προσφέρει νέους τρόπους για να βρείτε περισσότερες πληροφορίες και περιεχόμενο σχετικά με τις εικόνες που βρίσκετε στο διαδίκτυο. Η νέα δυνατότητα “Fact Check Explorer” προσφέρει έναν απλό τρόπο κατανόησης μιας εικόνας ή ενός θέματος ή γεγονότος.

Η Google ισχυρίζεται ότι ένα ποσοστό 70% των χρηστών (beta) έχουν μειώσει δραματικά τους χρόνους έρευνας μέσω της νέας λειτουργίας η οποία απευθύνεται κυρίως σε δημοσιογράφους και επαγγέλματα που ελέγχουν δεδομένα και γεγονότα. Μέσω του Fact Check Explorer, θα μπορείτε να ενσωματώνετε τις πληροφορίες που βρίσκετε στις πλατφόρμες σας.

Για όσους από εσάς συμμετέχετε στο Search Generative Experience (SGE) της Google, υπάρχει ακόμη μια δυνατότητα. Θα μπορείτε να βλέπετε περιγραφές που δημιουργούνται από τεχνητή νοημοσύνη (AI) για ορισμένες πηγές. Η Google ισχυρίζεται ότι παραθέτει σχετικές πληροφορίες από ιστότοπους υψηλής ποιότητας που μιλούν για τις συγκεκριμένες πηγές και προσθέτει το εξής:

Θα παρουσιάζουμε συνδέσμους σχετικά με τους ιστότοπους στην περιγραφή των πηγών που έχουν δημιουργηθεί από τεχνητή νοημοσύνη.

Το συγκεκριμένο εργαλείο, με απλά λόγια θα σας βοηθήσει να “τσεκάρετε” πηγές που δεν έχουν παρουσία σε δημοφιλείς πλατφόρμες όπως η Wikipedia. Ωστόσο, υπάρχει ένα θέμα που αφορά την αξιοπιστία αυτών των πληροφοριών η οποία εξαρτάται από τα metadata που παρέχουν οι αρχικοί χρήστες. Για παράδειγμα, οι αρχικοί δημιουργοί εικόνων πρέπει να επιλέξουν να σημειώσουν ότι οι εικόνες τους δημιουργήθηκαν με τεχνητή νοημοσύνη ώστε να ξέρετε με σιγουριά αυτό το χαρακτηριστικό για αυτές. Σχετικά με αυτό, η Google λέει ότι οι δικές της εικόνες που δημιουργούνται από τεχνητή νοημοσύνη (AI) θα έχουν πάντα τα κατάλληλα metadata ενσωματωμένα (διαπιστευτήρια δηλαδή ότι πρόκειται για AI εικόνες).

Αναζητήστε όλα τα νέα προϊόντα στο κατάστημα
Ρεπέλλα Φωτογραφικά.

To pttlgr στηρίζεται για την λειτουργία του στους αναγνώστες του!
Μπορείς να βοηθήσεις με μία μικρή δωρεά!
Υποστηρίξτε το pttlgr ακόμα και με μόλις 1€ – χρειάζεται μόνο ένα λεπτό. Εάν μπορείτε, σκεφτείτε να μας υποστηρίξετε με ένα ποσό κάθε μήνα.
Σας ευχαριστούμε.

Στηρίξτε το pttlgr και την προσπάθεια μας για έγκυρη και άμεση ενημέρωση ακολουθώντας μας
σε InstagramYouTube και Facebook!

Ακολουθήστε το pttlgr στα Google News, εδώ!

Κάνε Εγγραφή / Subscribe στο κανάλι μας στο YouTube, αποκλειστικά για φωτογραφία και φωτογραφικό εξοπλισμό!

Πριν φύγετε δείτε

ΔΕΙΤΕ ΑΚΟΜΑ

Ετικέτες:

AI Google

Πηγή:

Petapixel Engadget
author
Γιώργος Σπανουδάκης

Είμαι ο Σπανουδάκης Γιώργος, φωτογράφος με έδρα την Αθήνα και έχω σπουδάσει μουσική και φωτογραφία (κάτοχος Bachelor of Arts). Ασχολούμαι επίσης με επεξεργασία φωτογραφιών και βίντεο. Εξειδικεύομαι σε φωτογραφίσεις κάθε είδους καλλιτεχνικών εκδηλώσεων και πορτρέτων. Όταν έχω χρόνο ασχολούμαι επίσης με αστροφωτογραφία, φωτογραφία τοπίου και λατρεύω να εκφράζομαι δημιουργώντας δικά μου φωτογραφικά concept.

Ποιά είναι η γνώμη σου;

Σας παρακαλούμε να σχολιάζετε με σεβασμό στους συνομιλητές σας και να χρησιμοποιείτε την ελληνική γλώσσα και όχι greeklish (παρά μόνο στην περίπτωση που δεν μπορείτε λόγω ρυθμίσεων του Η/Υ). Επίσης αποφεύγετε να γράφετε τα σχόλια σας με κεφαλαία γράμματα. Όλα τα σχόλια περνάνε από έλεγχο πριν την δημοσίευση τους, οπότε πρέπει να περιμένετε για να εγκριθεί το σχόλιο σας.

Subscribe to our newsletter!