Εμποδίζει το Facebook -χάρη στους «έξυπνους» αλγόριθμούς του- τους χρήστες του να εκτεθούν σε διαφορετικές γνώμες εντελώς αντίθετες από τις δικές τους τροφοδοτώντας έτσι την ιδεολογική και πολιτική απομόνωση και πόλωση;
Αυτό ήταν το αντικείμενο μιας νέας έρευνας η οποία αποφάνθηκε ότι ναι μεν το Facebook συντηρεί τα διαχωριστικά φράγματα, αλλά η πολωτική επίδραση των αλγορίθμων του δεν είναι μεγάλη και σίγουρα είναι μικρότερη από τις αποφάσεις των ίδιων των χρηστών για το ποιές ειδήσεις θα διαβάσουν και θα ανταλλάξουν στο κοινωνικό δίκτυο.
Η έρευνα, που πραγματοποιήθηκε από τους ίδιους τους ερευνητές του Facebook και του Πανεπιστημίου του Μίσιγκαν με επικεφαλής τον δρα Σόλομον Μέσινγκ και δημοσιεύθηκε στο κορυφαίο επιστημονικό περιοδικό “Science”, ανέλυσε στοιχεία για 10,1 εκατομμύρια χρήστες του δικτύου.
Σύμφωνα με την μελέτη, περίπου το 80% των φίλων ενός μέσου χρήστη στο Facebook έχουν παρεμφερείς πολιτικές πεποιθήσεις, ενώ το 20% ανήκουν στο άλλο «στρατόπεδο». Οι φίλοι αυτοί ανταλάσσουν ειδήσεις μέσω του δικτύου και οι ειδήσεις αυτές τείνουν να έχουν παρόμοιο πολιτικό «χρώμα».
Με αυτό τον τρόπο, μόνο το 29,5% των ειδήσεων που βλέπει ένας χρήστης, περιέχει αντίθετες πολιτικές απόψεις.
Αν δεν παρενέβαινε το «φίλτρο» των φίλων και ένας χρήστης είχε τυχαία πρόσβαση στις αναρτήσεις στο Facebook, τότε θα εκτίθετο στην αντίθετη άποψη σε πολύ μεγαλύτερο ποσοστό, της τάξης του 40% έως 45%.
Μετά από αυτό το πρώτο σημαντικό «φίλτρο» των φίλων, το ίδιο το Facebook «φιλτράρει» ποιές ειδήσεις βλέπει κάθε χρήστης, επειδή παρεμβαίνουν οι πολύπλοκοι, εμπιστευτικοί και επίμαχοι «κοινωνικοί» αλγόριθμοί του, που επιλέγουν μόνοι τους τι νομίζουν ότι θα ήθελε να δει ο χρήστης.
Αυτοί οι αλγόριθμοι μειώνουν μεν αλλά ελαφρά (στο 28,9%) -και σίγουρα πολύ λιγότερο από το φίλτρο των φίλων- το ποσοστό των πολιτικών ειδήσεων διαφορετικής πολιτικής ιδεολογίας που μπορεί να δει ένας χρήστης. Τελικά, όταν ο μέσος χρήστης κάνει «κλικ» για να διαβάσει ειδήσεις, μόνο το ένα τέταρτο από αυτές (24,9%) υπερβαίνουν την πολιτικο-ιδεολογική σφαίρα του.
Όπως δήλωσε ο Μέσινγκ, οι προσωπικές επιλογές του κάθε χρήστη μετρούν πολύ περισσότερο από τις επιλογές του αλγόριθμου.
Αυτό που «κάνει τη διαφορά», είναι η επιλογή των online φίλων. To ίδιο το Facebook, σχολιάζοντας την έρευνα, ανέφερε πως δείχνει ότι οι χρήστες του εκτίθενται σε μια ποικιλία απόψεων. «Βρήκαμε πως οι περισσότεροι άνθρωποι έχουν φίλους με αντίθετη πολιτική ιδεολογία και αυτό αντανακλάται στις ειδήσεις που ανταλλάσσουν», επεσήμανε το δίκτυο.
Το μεγάλο ερώτημα πάντως, σύμφωνα με πολλούς αναλυτές, είναι αν είναι καλύτερο για τη δημοκρατία να ενημερώνεται κανείς για το τι συμβαίνει στον κόσμο, μέσω του Facebook ή απευθείας μέσω των ποικίλων μέσων ενημέρωσης.
Υπενθυμίζεται ότι, όπως έχουν δείξει άλλες μελέτες, γενικότερα οι άνθρωποι τείνουν να διαβάζουν ειδήσεις από πηγές με τις οποίες συμφωνούν πολιτικά,
ανατροφοδοτώντας έτσι τις πεποιθήσεις τους. Το ζήτημα είναι πως το Facebook φαίνεται να ενισχύει περαιτέρω αυτή τη διαδικασία, κυρίως μέσω του φίλτρου της επιλογής φίλων και λιγότερο μέσω του φίλτρου των αλγόριθμών του.