Бу́льбашка фі́льтрів (англ. Filter bubble, іноді інформаційна бульбашка)  — це стан інтелектуальної ізоляції[1], явище, спричинене результатами персоналізованого пошуку, в якому алгоритм вебсайту вибірково припускає, яку інформацію користувач хотів би бачити, базуючись на інформації про користувача (як-от розташування, поведінка «після кліка» та історія пошуку)[2]. Як наслідок, користувачі відділяються від інформації, яка не відповідає їхнім поглядам, фактично ізолюючись у власних культурних або ідеологічних бульбашках[3]. Робота пошукових алгоритмів не є прозорою[4]. Яскравими прикладами є персоналізований пошук Google та персоналізована стрічка новин Facebook.

Елі Парайзер[en] сформував термін в 2010 році

Історія ред.

Термін ввів активний користувач інтернету Елі Парайзер (англ. Eli Pariser) у власній однойменній книзі. На думку Парайзера, користувачі зараз мають менше доступу до інформації, що суперечить їхнім поглядам та є ізольованими інтелектуально у власних інформаційних бульбашках[5]. Парайзер навів приклад, в якому один користувач ввів у стрічку пошуку Google «BP» (англійською) і отримав новини про інвестиції в «Британську нафту», в той час як інший користувач за тим же самим запитом отримав інформацію про глибоководний вилив нафти. Дві сторінки результатів пошуку були «разюче відмінні». На думку Парайзера, інформаційна бульбашка має негативне значення для соціуму, проте існують інші погляди, що говорять про мінімальність впливу і можливість його усунення. Парайзер визначив поняття «інформаційної бульбашки» в формальних термінах, як «персональна екосистема інформації, яка обслуговується певними алгоритмами». Для опису явища також використовувались терміни «ідеологічні рамки» і «образотворча сфера, що оточує під час пошуку в Інтернеті».

Концепція ред.

Історія пошуку формується протягом деякого часу перебування користувача на інтернет-сайтах. Його інтереси визначаються через переходи за посиланнями, перегляди друзів, відео, новин і т. д. Інтернет-компанії потім використовують цю інформацію для цільової реклами або модифікації результатів пошуку, коли деякі типи інформації з'являються частіше. 

В інформаційній бульбашці, за словами Парайзера, фільтрований пошук потенційно блокує наші нові ідеї та теми, обмежуючи доступ до інформації довкола лише нашими вподобаннями.[6] На його думку, це шкідливо як для окремих індивідуумів, так і для суспільства в цілому. Парайзер критикує Google і Facebook за те, що вони надають користувачам «дуже багато цукерок і недостатньо моркви».[7] Такі невидимі алгоритмічні редагування, можуть обмежувати висвітлення нової інформації і звужувати наш кругозір.

Як вважає Парайзер, негативні ефекти інформаційної бульбашки несуть шкоду для суспільства в тому сенсі, що надають можливість «підривати цивільний трактат» і роблять людей більш уразливими до «пропаганди і маніпулювання».

У 2011 в «The Economist» Парайзер писав:

«Світ, створений зі знайомого, це світ в якому немає чого вивчати, (оскільки є) прихована автопропаганда, що годує нас нашими ж ідеями»

Оригінальний текст (англ.)
"A world constructed from the familiar is a world in which there's nothing to learn ... (since there is) invisible autopropaganda, indoctrinating us with our own ideas."

Бульбашка фільтрів описується як загострення феномену, що називається «улаком» або «кіберчленуванням», яке відбувається коли інтернет-простір стає поділеним на певні підгрупи людей, що мислять однаково та ізолюються всередині власної інтернет-спільноти і не взаємодіють з іншими точками зору; термін «кіберчленування» був введений в 1996 році.[8]

Критика ред.

Існують суперечливі думки про міру використання персоналізованого фільтру і чи така діяльність вигідна або шкідлива. Аналітик Якоб Вайсберг (англ. Jacob Weisberg) зробив невеликий ненауковий експеримент, щоб перевірити теорію Парайзера, залучивши п'ять людей з різними ідеологічними переконаннями. Всі п'ятеро здійснили ідентичний пошуковий запит в чотирьох різних пошукових системах і отримали практично однакові результати. Це, на думку Вайсберга, свідчить про неефективність інформаційних фільтрів, і що поняття було надмірно розрекламовано. Книжковий рецензент Пол Бутен (англ. Paul Boutin) зробив подібний експеримент серед людей з різними пошуковими історіями, і отримав результати подібні до Вайсбера. Гарвардський професор права Джонатан Цзіттрен (англ. Jonathan Zittrain), коментуючи міру спотворення персональним фільтром пошукових результатів Google говорив, що «ефект пошукової персоналізації проявлявся в незначній мірі».

Як заявляє компанія Google, користувачі її послуг можуть вимкнути функції персоналізації за своїм бажанням[9].

Аналітик Дуґ Ґросс (англ. Doug Gross) з телеканалу CNN висловив припущення про те, що персоналізований пошук корисний у випадку, якщо ви шукаєте товари і послуги. Так, при замовленні піци, персоналізовані фільтри допомагають швидше знайти варіанти місцевої служби доставки, відкинувши пропозиції піцерій, що знаходяться далеко від користувача[10].

Наразі інтернет-сайти Washington Post, The New York Times та деякі інші склали домовленість про докладання спільних зусиль для створення персоналізованих інформаційних систем з метою моделювання результатів пошуку, які користувачам сподобаються і здадуться корисними[11]

Див. також ред.

Примітки ред.

  1. Technopedia, Definition — What does Filter Bubble mean? [Архівовано 10 жовтня 2017 у Wayback Machine.], Retrieved October 10, 2017, «….A filter bubble is the intellectual isolation that can occur when websites make use of algorithms to selectively assume the information a user would want to see, and then give information to the user according to this assumption … A filter bubble, therefore, can cause users to get significantly less contact with contradicting viewpoints, causing the user to become intellectually isolated….»(англ.)
  2. Bozdag, Engin (23 червня 2013). Bias in algorithmic filtering and personalization. Ethics and Information Technology. 15 (3): 209—227. doi:10.1007/s10676-013-9321-6.(англ.)
  3. Huffington Post, The Huffington Post "Are Filter-bubbles Shrinking Our Minds?" [Архівовано 3 листопада 2016 у Wayback Machine.] (англ.)
  4. Encrypt, Search (26 лютого 2019). What Are Filter Bubbles & How To Avoid Them. Search Encrypt Blog (амер.). Архів оригіналу за 25 лютого 2019. Процитовано 19 березня 2019. (англ.)
  5. Parramore, Lynn (10 жовтня 2010). The Filter Bubble. The Atlantic. Архів оригіналу за 22 серпня 2017. Процитовано 20 квітня 2011. Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....(англ.)
  6. Dish, The Daily (10 жовтня 2010). The Filter Bubble. The Atlantic (англ.). Процитовано 26 вересня 2022.
  7. Algorithms and the Filter Bubble Ruining Your Online Experience?. HuffPost (англ.). 1 червня 2011. Процитовано 26 вересня 2022.
  8. Invisible sieve: Hidden, specially for you. The Economist. 30 червня 2011. Архів оригіналу за 12 травня 2016. Процитовано 27 червня 2011. Mr Pariser's book provides a survey of the internet's evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.(англ.)
  9. Ludwig, Amber. Google Personalization on Your Search Results Plus How to Turn it Off. NGNG. Архів оригіналу за серпень 17, 2011. Процитовано 15 серпня 2011. Google customizing search results is an automatic feature, but you can shut this feature off.
  10. Gross, Doug (19 травня 2011). What the Internet is hiding from you. CNN. Архів оригіналу за 9 квітня 2016. Процитовано 15 серпня 2011. I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.(англ.)
  11. Weisberg, Jacob (10 червня 2011). Bubble Trouble: Is Web personalization turning us into solipsistic twits?. Slate. Архів оригіналу за 12 червня 2011. Процитовано 15 серпня 2011.

Посилання ред.