Бульбашка фільтрів

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
Елі Парайзер[en] сформував термін в 2010 році

Бу́льбашка фі́льтрів (англ. Filter bubble, іноді інформаційна бульбашка)  — це стан інтелектуальної ізоляції[1], явище, спричинене результатами персоналізованого пошуку[en], в якому алгоритм вебсайту вибірково припускає, яку інформацію користувач хотів би бачити, базуючись на інформації про користувача (як-от розташування, поведінка «після кліка» та історія пошуку)[2]. Як наслідок, користувачі відділяються від інформації, яка не відповідає їхнім точкам зору, фактично ізолюючись у власних культурних або ідеологічних бульбашках[3]. Робота пошукових алгоритмів не є прозорою[4]. Яскравими прикладами є персоналізований пошук Google[en] та персоналізована стрічка новин[en] Facebook.

Історія[ред. | ред. код]

Термін ввів активний користувач інтернету Елі Парайзер (англ. Eli Pariser) у власній однойменній книзі. На думку Парайзера, користувачі зараз мають менше доступу до інформації, що суперечить їхнім точкам зору та є ізольованими інтелектуально у власних інформаційних бульбашках[5]. Парайзер навів приклад, в якому один користувач ввів у стрічку пошуку Google «BP» (англійською) і отримав новини про інвестиції в «Британську нафту», в той час як інший користувач за тим же самим запитом отримав інформацію про глибоководний вилив нафти. Дві сторінки результатів пошуку були «разюче відмінні». На думку Парайзера, інформаційна бульбашка має негативне значення для соціуму, проте існують інші погляди, що говорять про мінімальність впливу і можливість його усунення. Парайзер визначив поняття «інформаційної бульбашки» в формальних термінах, як «персональна екосистема інформації, яка обслуговується певними алгоритмами». Для опису явища також використовувались терміни «ідеологічні рамки» і «образотворча сфера, що оточує під час пошуку в Інтернеті».

Концепція[ред. | ред. код]

Історія пошуку формується протягом деякого часу перебування користувача на інтернет-сайтах. Його інтереси визначаються через переходи за посиланнями, перегляди друзів, відео, новин і т. д. Інтернет-компанії потім використовують цю інформацію для цільової реклами або модифікації результатів пошуку, коли деякі типи інформації з'являються частіше. 

В інформаційній бульбашці, за словами Парайзера, фільтрований пошук потенційно блокує наші нові ідеї та теми, обмежуючи доступ до інформації довкола лише нашими вподобаннями. На його думку, це шкідливо як для окремих індивідуумів, так і для суспільства в цілому. Парайзер критикує Google і Facebook за те, що вони надають користувачам «дуже багато цукерок і недостатньо моркви». Такі невидимі алгоритмічні редагування, можуть обмежувати висвітлення нової інформації і звужувати наш кругозір.

Як вважає Парайзер, негативні ефекти інформаційної бульбашки несуть шкоду для суспільства в тому сенсі, що надають можливість «підривати цивільний трактат» і роблять людей більш уразливими до «пропаганди і маніпулювання».

У 2011 в «The Economist» Парайзер писав:

«Світ, створений зі знайомого, це світ в якому немає чого вивчати, (оскільки є) прихована автопропаганда, що годує нас нашими ж ідеями»

Оригінальний текст (англ.)
"A world constructed from the familiar is a world in which there's nothing to learn ... (since there is) invisible autopropaganda, indoctrinating us with our own ideas."

Бульбашка фільтрів описується як загострення феномену, що називається «улаком» або «кіберчленуванням», яке відбувається коли інтернет-простір стає поділеним на певні підгрупи людей, що мислять однаково та ізолюються всередині власної інтернет-спільноти і не взаємодіють з іншими точками зору; термін «кіберчленування» був введений в 1996 році.[6]

Критика[ред. | ред. код]

Існують суперечливі думки про міру використання персоналізованого фільтру і чи така діяльність вигідна або шкідлива. Аналітик Якоб Вайсберг (англ. Jacob Weisberg) зробив невеликий ненауковий експеримент, щоб перевірити теорію Парайзера, залучивши п'ять людей з різними ідеологічними переконаннями. Всі п'ятеро здійснили ідентичний пошуковий запит в чотирьох різних пошукових системах і отримали практично однакові результати. Це, на думку Вайсберга, свідчить про неефективність інформаційних фільтрів, і що поняття було надмірно розрекламовано. Книжковий рецензент Пол Бутен (англ. Paul Boutin) зробив подібний експеримент серед людей з різними пошуковими історіями, і отримав результати подібні до Вайсбера. Гарвардський професор права Джонатан Цзіттрен (англ. Jonathan Zittrain), коментуючи міру спотворення персональним фільтром пошукових результатів Google говорив, що «ефект пошукової персоналізації проявлявся в незначній мірі».

Як заявляє компанія Google, користувачі її послуг можуть вимкнути функції персоналізації за своїм бажанням[7].

Аналітик Дуґ Ґросс (англ. Doug Gross) з телеканалу CNN висловив припущення про те, що персоналізований пошук корисний у випадку, якщо ви шукаєте товари і послуги. Так, при замовленні піци, персоналізовані фільтри допомагають швидше знайти варіанти місцевої служби доставки, відкинувши пропозиції піцерій, що знаходяться далеко від користувача[8].

Наразі інтернет-сайти Washington Post, The New York Times та деякі інші склали домовленість про докладання спільних зусиль для створення персоналізованих інформаційних систем з метою моделювання результатів пошуку, які користувачам сподобаються і здадуться корисними[9]

Див. також[ред. | ред. код]

Примітки[ред. | ред. код]

  1. Technopedia, Definition — What does Filter Bubble mean?, Retrieved October 10, 2017, «….A filter bubble is the intellectual isolation that can occur when websites make use of algorithms to selectively assume the information a user would want to see, and then give information to the user according to this assumption … A filter bubble, therefore, can cause users to get significantly less contact with contradicting viewpoints, causing the user to become intellectually isolated….»(англ.)
  2. Bozdag, Engin (23 June 2013). Bias in algorithmic filtering and personalization. Ethics and Information Technology 15 (3): 209–227. doi:10.1007/s10676-013-9321-6. (англ.)
  3. Huffington Post, The Huffington Post "Are Filter-bubbles Shrinking Our Minds?" (англ.)
  4. Encrypt, Search (2019-02-26). What Are Filter Bubbles & How To Avoid Them. Search Encrypt Blog (en-US). Процитовано 2019-03-19.  (англ.)
  5. Parramore, Lynn (October 10, 2010). The Filter Bubble. The Atlantic. Процитовано April 20, 2011. «Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....» (англ.)
  6. Invisible sieve: Hidden, specially for you. The Economist. 30 June 2011. Процитовано June 27, 2011. «Mr Pariser's book provides a survey of the internet's evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.» (англ.)
  7. Ludwig, Amber. Google Personalization on Your Search Results Plus How to Turn it Off. NGNG. Архів оригіналу за серпень 17, 2011. Процитовано August 15, 2011. «Google customizing search results is an automatic feature, but you can shut this feature off.» 
  8. Gross, Doug (May 19, 2011). What the Internet is hiding from you. CNN. Процитовано August 15, 2011. «I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.» (англ.)
  9. Weisberg, Jacob (June 10, 2011). Bubble Trouble: Is Web personalization turning us into solipsistic twits?. Slate. Процитовано August 15, 2011. 

Посилання[ред. | ред. код]