Μoderator μηνύει το TikTok για ψυχολογικά τραύματα που απέκτησε ελέγχοντας τα βίντεο στην πλατφόρμα!

Μια moderator του TikTok κινείται δικαστικά ενάντια στο δημοφιλές κοινωνικό δίκτυο για πρόκληση διαταραχής μετατραυματικού στρες (PTSD) λόγω των σκληρών βίντεο που πρέπει να παρακολουθεί καθημερινά.

Δεν είναι μόνο το περιεχόμενο – σύμφωνα με τη μήνυση, αλλά και το γεγονός ότι οι moderators εκτίθενται σε ένα τεράστιο αριθμό αυτών των βίντεο, το οποίο επηρεάζει σοβαρά την ψυχική τους υγεία.

Η moderator Candie Frazier έχει ξεκινήσει μια ομαδική αγωγή κατά του TikTok καθώς ισχυρίζεται ότι τα βίντεο που πρέπει να βλέπουν οι content moderator περιλαμβάνουν φρικτό και ενοχλητικό περιεχόμενο, όπως παιδική πορνογραφία, βιασμούς, αποκεφαλισμούς και ακρωτηριασμούς ζώων. Σύμφωνα με την Frazier, χρειάστηκε επίσης να επεξεργαστεί βίντεο «φρικτού κανιβαλισμού, κομμένα κεφάλια, πυροβολισμούς σε σχολείο, αυτοκτονίες, ακόμη και μια μοιραία πτώση από ένα κτίριο», σύμφωνα με άρθρο του Bloomberg.

Η μήνυση αναφέρει ότι οι 10.000 content moderator του TikTok πρέπει να ελέγχουν έναν τεράστιο όγκο περιεχομένου. Εργάζονται σε 12ωρες βάρδιες, με συνολικά μόνο μία ώρα διάλειμμα. Κατά τη διάρκεια αυτού του 12ωρου, παρακολουθούν εκατοντάδες βίντεο με άκρως ανησυχητικό περιεχόμενο.

Λόγω του τεράστιου όγκου του περιεχομένου, οι content moderators δεν επιτρέπεται να δουν περισσότερα από 25 δευτερόλεπτα ανά βίντεο με αποτέλεσμα να βλέπουν ταυτόχρονα τρία έως δέκα βίντεο

ανέφεραν οι δικηγόροι της Frazier στην καταγγελία.

Το TikTok δεν σχολίασε την εν εξελίξει αγωγή. Ένας εκπρόσωπος τύπου της εταιρείας έκανε μόνο μια δήλωση υποστηρίζοντας ότι η εταιρεία προσπαθεί «να προωθήσει ένα φιλικό περιβάλλον εργασίας για τους υπαλλήλους και τους συνεργάτες μας».

Οι πλατφόρμες κοινωνικών μέσων όπως το Instagram και το Facebook βασίζονται στην τεχνητή νοημοσύνη για την εποπτεία ακατάλληλου περιεχομένου από το 2020. Το TikTok το ανακοίνωσε φέτος. Ωστόσο γνωρίζουμε ότι το σύστημα κάνει και λάθη καθώς έχει λογοκρίνει αρχαία αγάλματα, πίνακες Baroque, ακόμη και ένα άγαλμα 30.000 ετών. Αυτός είναι ο λόγος για τον οποίο μεγάλο μέρος του περιεχομένου εξακολουθεί να περνά από ανθρώπινο έλεγχο ακόμη και στις πλατφόρμες που χρησιμοποιούν AI.

Σύμφωνα με την καταγγελία, το TikTok, μαζί με το Facebook και το YouTube, ανέπτυξαν οδηγίες για τους moderators που θα τους βοηθούσαν να αντιμετωπίσουν τις εικόνες κακοποίησης παιδιών που βλέπουν καθημερινά στη δουλειά τους. Περιλαμβάνουν την παροχή ψυχολογικής υποστήριξης στους moderators και τον περιορισμό της βαρδίας τους σε τέσσερις ώρες. Ωστόσο, το TikTok φέρεται να απέτυχε στην εφαρμογή τους.

Στην αγωγή της, ο δικηγόρος της Frazier ισχυρίζεται ότι όλα αυτά την οδήγησαν να αναπτύξει διαταραχή μετατραυματικού στρες (PTSD). Έτσι, ζητά αποζημίωση για ψυχολογικούς λόγους και δικαστική απόφαση που απαιτεί από την εταιρεία να λάβει μέτρα οικονομικής υποστήριξης για τους moderators.


Απέκτησε το Luminar με έκπτωση, με τον κωδικό pttl20,
κάνε κλικ στην εικόνα

Luminar - Λογισμικό Επεξεργασίας φωτογραφιών

Αναζητήστε όλα τα νέα προϊόντα στο κατάστημα
Ρεπέλλα Φωτογραφικά.

pttlgr team

Η ομάδα του pttlgr αποτελείται από φωτογράφους συντάκτες που αγαπούν την φωτογραφία και την ενημέρωση!
0 0 ψήφοι
Article Rating
Εγγραφή
Ειδοποίηση για
guest

0 Comments
Παλαιότερο
Νεότερο Με τις περισσότερες ψήφους
Inline Feedbacks
Προβολή όλων των σχολίων
Back to top button
0
Would love your thoughts, please comment.x
Close

Η διαφήμιση στηρίζει το pttlgr

Οι διαφημίσεις μάς βοηθούν να διατηρούμε το pttlgr δωρεάν, ανεξάρτητο και καθημερινά ενημερωμένο για φωτογράφους, βιντεογράφους και δημιουργούς εικόνας.
Αν θέλεις, μπορείς να μας προσθέσεις στις εξαιρέσεις του ad blocker σου.

Σε ευχαριστούμε για τη στήριξη!