«Мы уже можем с точностью более 90% определить по фото сексуальную ориентацию человека»

Михал Косински — гуру цифровой психометрии, анализирующей людей по их дигитальным следам. Что будет с нашей приватностью, с тревогой выясняла у него Ника Дубровская

текст: Ника Дубровская
Detailed_picture© Lauren Bamford

Михал Косински — психолог, специалист по big data, бывший заместитель директора Центра психометрии Кембриджского университета, сейчас доцент Стэнфордского университета, один из ведущих спецов в мире по психометрии нового образца, которую бизнес, политика, спецслужбы, здравоохранение или просто другие люди могут использовать в своих целях.

— Расскажи о том, что такое психометрия, как давно она существует и как развивалась.

— Психометрия — это наука, изучающая теорию и методику психологических измерений. Ей занимаются психологи, которые анализируют личностные черты человека с помощью различных анкет и тестов. Существует она очень давно: более тысячи лет назад китайских чиновников нанимали на работу на основе стандартизированных тестов, подобных современным GMAT и SAT, которые мы используем в Америке сегодня.

Самое большое изменение в психометрии заключается в том, что вместо опроса людей с помощью анкет теперь мы можем наблюдать за их поведением. Психологи давно знают, что лучший способ оценить человека — пронаблюдать за ним. Вместо того чтобы спрашивать, как часто вы ходите на вечеринки, лучше это самим увидеть. В реальной жизни это очень трудно, потребовалось бы невероятное количество времени и ресурсов, чтобы следить за людьми и записывать, чем они занимаются, не говоря уже о том, что это довольно жутко.

Но в мире новых технологий мы сами, не задумываясь, оставляем множество цифровых отпечатков — каждый раз, когда пользуемся Facebook, браузером, Google, смартфоном. Сегодня нетрудно использовать эти данные, чтобы составить портрет человека. И у этого метода много преимуществ. Например, людям сложнее исказить информацию о себе. В прошлом если ты солгал в психологическом тесте, то легко мог получить преимущество перед тем, кто был честен. Сегодня тебе пришлось бы полностью изменить свое поведение и придерживаться его много лет подряд, чтобы обмануть систему. Так что если ты действительно в состоянии в течение пяти лет вести себя как хорошо организованный человек, то, вероятно, ты им и являешься.

— Мне бы тоже хотелось узнать свой психологический профиль. Но ведь это интересует не только меня, но и тех, кто не прочь продать мне что-нибудь или как-то на меня повлиять.

— Безусловно, есть люди, которые этого хотят, и в некотором смысле это даже хорошо. Министр здравоохранения хочет, чтобы ты не курила, питалась здоровой пищей и жила дольше. И у него больше шансов помочь тебе, если он будет знать, как тебе это правильно подать. Твой школьный учитель помогает тебе стать хорошим, честным человеком. Есть множество примеров, когда на наше поведение влияют нам же во благо.

Я не сторонник того, чтобы вся персональная информация была в открытом доступе и чтобы любой желающий мог получить ее без нашего ведома. Но если человек согласен, мы могли бы, например, помочь ему найти работу, на которой он может реализовать себя, ради которой ему хотелось бы вставать по утрам. Или проследить симптомы психических заболеваний и даже предвидеть высокий риск самоубийства, анализируя фотографии лиц или цифровые следы. Болезнь влияет на твое поведение, но это влияние может быть настолько малым, что обычный человек, в отличие от компьютеров, его не заметит. В прошлом только люди c деньгами могли позволить себе визиты к психологу. Сегодня благодаря алгоритмам мы можем дать все это простым людям, не предлагая им тратить сотни долларов в кабинетах врачей.

Или подумай, например, об образовании. Предположим, учитель что-то рассказывает аудитории — но к кому он в действительности обращается? Он говорит со средним студентом, которого на самом деле не существует. В результате много студентов скучает: для кого-то он говорит слишком быстро, для кого-то — слишком медленно. И мы разрабатываем алгоритмы, которые могут определять, насколько быстро студент справляется с заданиями, и подстраивать под него программу. Быстрый студент будет в состоянии прогрессировать быстро, медлительный не будет брошен в отстающих, потому что компьютер терпеливо подождет и объяснит ему все более четко.

— И как же именно, основываясь на наблюдении за поведением пользователей онлайн, можно узнать о них что-то личное?

— Пока ты пользуешься Facebook, он изучает твое поведение и на основе этой информации создает твой психологический профиль. Впоследствии он используется другими алгоритмами, чтобы в ленте отображались только интересующие тебя новости и истории. И это классно, потому что иначе тебе бы очень быстро надоело сталкиваться с ненужной информацией. Те же механизмы Facebook использует, чтобы показывать тебе рекламу. Это тоже отлично — зачем тебе видеть объявления, которые тебя вообще не интересуют? Facebook должен показывать рекламу, чтобы зарабатывать, — для нас это своего рода плата за пользование. Но лучше, чтобы эти объявления, по крайней мере, были полезными. Так что в целевом маркетинге часто нет ничего плохого, если никто не вторгается в твою жизнь без твоего ведома и согласия. Конечно, у всех должна быть возможность отказаться, запретить алгоритму создавать профиль. Но всем остальным это заметно облегчает жизнь.

© Lauren Bamford

— Очень странно, что ты так оптимистично настроен. В других интервью, после победы Трампа, ты был куда менее жизнерадостен.

— Это журналисты выбирают только негативное. Плохие новости продаются, никто не хочет слушать ничего оптимистического.

— И тем не менее. Например, я — американский гражданин, и на последних выборах я не голосовала, потому что не хотела отдавать голос за Хиллари, но была абсолютно уверена, что она в любом случае победит. Но теперь я думаю, что это решение навязал мне Facebook, фильтруя информацию в ленте. Мой профиль говорит о том, что я не буду голосовать за Трампа, но могу, если что, не проголосовать и за Хиллари тоже. Вот за это «если что» система и могла ухватиться.

— Да, люди говорят об информационном пузыре, даже Обама упоминал его в прощальной речи. Это модный тренд, основанный на ложном представлении. Есть даже институты, которые по сути являются научно-исследовательскими центрами по изучению феномена информационного пузыря. Очевидно, что если ты — научно-исследовательский центр по изучению какой-то проблемы, ты ее найдешь, поскольку получаешь на это гранты. Но на самом деле нет никакого научного обоснования информационных пузырей. Как раз наоборот.

В прошлом такой феномен действительно был, и он был связан с тем, что из информационного пузыря невозможно было выбраться. Если ты жил в России, то слышал только российскую пропаганду. Если родился в богатой английской семье, то получал информацию только от зажиточных друзей. Если в деревне, то только от своих священника и библиотекаря.

Теперь у нас есть интернет. Но у людей сохранилась тенденция воспринимать только информацию, подтверждающую их взгляды. Эта склонность к подтверждению своей точки зрения — одно из наиболее исследованных когнитивных искажений в психологии. Оно подразумевает, что если ты либерал, то ты предпочитаешь либеральную информацию, если консерватор — консервативную. Раньше ты ничего не мог с этим поделать, даже не понимал этого. Но сегодня на Facebook ты время от времени сталкиваешься с совершенно сумасшедшей информацией от людей, которые находятся за пределами твоего пузыря. Это дает тебе возможность узнать что-то, абсолютно противоположное тому, что ты знал до этого.

Сегодня люди потребляют беспрецедентное разнообразие информации, причем не только в политической сфере. Недавно я разговаривал с главным инженером Spotify, и он сказал мне, что только за 2016 год вариативность музыкальных коллективов, которые слушают люди, увеличилась в среднем на 20%. Так что, даже несмотря на нашу предрасположенность, мы все равно получаем более широкую информацию. Очевидно, что часть ее будет низкого качества, а часть — просто фальшивкой. Это новые медиа, и мы должны научиться пользоваться ими, фильтровать — этот навык сегодня становится важнее, чем когда-либо.

И целевой политический маркетинг — тоже вещь хорошая. Если ты живешь в большом городе, проблемы, связанные с сельским хозяйством, тебя не интересуют. И если ты увидишь на ТВ политика, который говорит об этом, ты, вероятно, переключишь канал, а это неправильно, потому что ты исключаешь себя из политического процесса. Но новый алгоритм дает политикам возможность общаться с избирателями один на один о проблемах, которые их интересуют. Программы партий — это длинные документы, сотни, если не тысячи, страниц. Простой человек не сможет в них разобраться. Алгоритмы позволяют выбрать часть программы, которая относится к тебе, и показать ее так, что ты можешь с ней ознакомиться.

Это раньше политики просто посылали одно сообщение всем сразу о проблеме, до которой многим не было дела. Теперь они могут говорить о том, что актуально для тебя. И очевидно, что некоторые начнут делать это раньше, некоторые позже. Те, кто раньше, получат преимущество просто потому, что они уже сейчас слышат тебя лучше. Другие политики вскоре подключатся, и равновесие сил будет восстановлено, мы все извлечем из этого выгоду.

— Но пока в авангарде Трамп…

— Да, Трамп — это история успеха парня без поддержки крупных лоббистов. Это ведь было просто смешно: у него не было внятной идеи, он говорил глупости. У Клинтон был в разы больший бюджет. Но Трамп обратился к людям напрямую. Берни Сандерс тоже сегодня может зайти на выборах далеко просто потому, что ему есть что сказать в Твиттере, — это настоящая революция в политике. Еще 10 или 20 лет назад никто бы о нем не услышал.

— Вопрос в том, есть ли у меня или у любого пользователя реальная возможность остановить постоянную слежку и выбраться из паутины, собирающей персональную информацию.

— Остановить это невозможно. Хотя можно просто прекратить пользоваться Facebook и Твиттером. Кстати, эти две компании собирают данные наименее агрессивно. Подумай о кредитной карте или веб-браузере — это очень личные данные, цифровые следы, которые действительно могут сказать о тебе многое. Так что пришлось бы выключить свет, переехать в пещеру посреди леса и избавиться от всех цифровых устройств. И даже в этом случае тебя нашел бы какой-нибудь турист и сделал бы твой снимок, потому что ты чудак. И вот снова ты оставляешь цифровые следы. Готовых решений тут нет, нужно быть осторожным, анализировать, создавать новую политику конфиденциальности, разрабатывать необходимые технологии для ее реализации. Можно голосовать за политиков, которые относятся серьезно к вопросам приватности.

— Менять законы?

— Я думаю, это просто замедляет процесс. Если ты примешь закон, запрещающий любое профилирование пользователей, это приведет к коллапсу, вся рекомендательная система прекратит работать. Твой Spotify, Last.fm, Netflix, Facebook — всё. Результаты поисковой выдачи, которые ты видишь, — тоже часть рекомендательного механизма, и Google прекратил бы работать тоже. В целом я считаю, что, поскольку мы все сильнее погружаемся в цифровую среду и оставляем все больше дигитальных отпечатков, а алгоритмы становятся все умнее, сохранить приватность в будущем у нас не получится.

— И что будет означать эта потеря приватности?

— Возможно, в будущем ты не сможешь скрыть даже свои самые личные черты. Сегодня ты можешь сказать мне, какие у тебя политические взгляды, сексуальная ориентация, религиозная принадлежность, а можешь и не говорить. Но в будущем у тебя может не быть такого выбора. Алгоритмы видят тебя насквозь. Уже сегодня мы в состоянии взять фотографию любого человека и с точностью более 90% определить, какая у него сексуальная ориентация, не прибегая к анализу дополнительных данных. Не говоря уже о том, сколько о тебе можно узнать, когда есть лайки и твиты. Это будут в состоянии сделать правительства, компании и даже обычные люди. То, что Штази делала в Восточной Германии, используя сотни тысяч людей на зарплате, сегодня может сделать за своим ноутбуком ученик средней школы.

При этом та же самая технология представляет гораздо большую опасность для людей, живущих в таких странах, как Саудовская Аравия или, возможно, Россия. Если ты живешь в Саудовской Аравии и алгоритм может сообщить правительству, какие у тебя политические взгляды и сексуальная ориентация, — тебя могут просто убить.

— При этом тот же Фейсбук — это еще и частная компания, бизнес.

— Кто контролирует медиа — это важно. Очевидно, что Марк Цукерберг сегодня единолично управляет средой, которую множество людей использует для потребления информации. Ларри Пейдж и Сергей Брин управляют еще одной средой, которая потенциально имеет огромное влияние на результаты выборов. И это действительно опасно на многих уровнях. Возможно, все они — хорошие парни, но кто знает наверняка? Предположим, Цукерберг в порядке, но что, если следующий Цукерберг — монстр? Для демократии всегда плохо, когда один человек имеет слишком много власти, но это — то, с чем мы уже имеем дело сейчас.

Прежде всего, Цукерберг может изменить свой алгоритм. Но Марк, по крайней мере, — ответственное лицо, и люди знают: если что, его можно обвинять. А у простого разработчика, анонимного парня, который сидит в серверной, такой ответственности нет. Завтра он может изменить пару строк кода в алгоритме работы Facebook и повлиять на работу этой огромной машины, и этого никто не заметит, более того, людям будет сложно вычислить, что это сделал именно он.

Вторая проблема состоит в том, что алгоритм может начать делать вещи, которых никто не ожидает, даже сам Цукерберг и его разработчики. В прошлом, если у тебя была газета и ты хотел завести политическую колонку, ты организовывал встречу с редакторами и говорил им, как это должно выглядеть. Это было легко контролировать, и как владелец ты сразу видел, если твоя газета печатала что-то не то.

Алгоритмы Facebook контролировать гораздо сложнее, они показывают всем разные вещи. Ни Цукерберг, ни его инженеры не в силах понять, что этот алгоритм фактически делает, что происходит у него внутри. То есть мы, конечно, можем понять, как это работает, ведь даже нейронные сети довольно просты — но они огромны. Там такое количество слоев этих простых вещей, что система становится совершенно непонятной. Это делает возможной парадоксальную ситуацию, когда алгоритм Цукерберга начнет делать вещи, о которых мы не догадываемся и которые, соответственно, не можем проконтролировать.

— Ничего себе. И каким видишь ты решение этой проблемы?

— Традиционные СМИ находятся под контролем общественных организаций и правительственных медиаагентств, следящих за тем, чтобы журналисты не публиковали ложную информацию. Я думаю, что те же самые стандарты должны применяться и к таким компаниям, как Facebook или Google. Очевидно, что это намного сложнее осуществить, поскольку у каждого пользователя Facebook свой персонализированный опыт. Это не похоже на отношения с традиционными СМИ, когда ты можешь подсчитать, кто сколько раз солгал, и оштрафовать их. Но я думаю, что мы можем анализировать опыт случайных десяти или ста тысяч пользователей и на основе этого делать выводы о поведении алгоритма в целом.

— Ты предлагаешь контролировать алгоритм, а не пользователя, верно?

— Я предлагаю использовать один алгоритм, чтобы контролировать другие алгоритмы. Если бы за работой алгоритмов Марка Цукерберга следили другие алгоритмы, не только он полнее осознавал бы свою ответственность, но и люди больше доверяли бы ему. Общество, политики, Цукерберг — мы все должны принять эту новую политику, способную застраховать нас от вмешательства программиста в серверной. Все только выиграют от этого дополнительного контроля, публичного и открытого. За этим могут следить университет, несколько университетов, общественные организации или каждый пользователь.

Сейчас, когда в Facebook замечают за своим алгоритмом странности, они пытаются разобраться с этим. Возьмем, к примеру, fake news. Это проблема, с которой они давно столкнулись и над решением которой упорно работают. И можно сказать, что им удалось настроить алгоритм таким образом, чтобы он прекратил показывать fake news. Но все это говорит о том, что никто не понимает, как работает алгоритм, — мы можем только смотреть на результат и исправлять ошибки. Это касается и других областей — очень скоро ты придешь к доктору, а он скажет тебе: «Выпей это лекарство, оно поможет тебе. Но я не знаю почему — так сказал компьютер. Должно быть, это правда, потому что он практически не ошибается и знает все лучше меня».

— Я бы, наверное, не стала пить эти таблетки.

— Думаю, стоило бы — компьютеры тут точнее.

— И все-таки, как ты думаешь, будем ли мы в состоянии защитить себя в будущем?

— Мы можем изменить законы и создать компании, которые в состоянии лучше защитить наши технологии; мы можем обсуждать децентрализованные технологии шифрования. Но вместо того, чтобы продолжать участвовать в битве за приватность, которую мы уже проиграли, мы должны подумать, как вести себя дальше. Давайте попытаемся сделать общество более открытым и терпимым. Образованными избирателями манипулировать сложнее, толерантное общество не будет угрожать людям с иными взглядами, сексуальной ориентацией или вероисповеданием. И мы не сможем защитить себя, если не объединимся. Эта проблема слишком серьезна — нельзя в одиночку защитить себя от ядерной бомбы. Хотя этот пример как раз обнадеживает. У нас есть много других потенциально опасных технологий, которые разработало человечество, и нам удалось с ними разобраться. Подумай о ядерной энергии, динамите или кухонных ножах. Очевидно, есть примеры использования этих технологий против нашего благополучия, но в целом нам удается их контролировать. Мы справляемся с ядерной энергией — справимся и с алгоритмами.

В работе над текстом принимал участие Арнольд Хачатуров.


Понравился материал? Помоги сайту!

Сегодня на сайте
Елизавета Осетинская: «Мы привыкли платить и сами получать маленькие деньги, и ничего хорошего в этом нет»Журналистика: ревизия
Елизавета Осетинская: «Мы привыкли платить и сами получать маленькие деньги, и ничего хорошего в этом нет» 

Разговор с основательницей The Bell о журналистике «без выпученных глаз», хронической бедности в профессии и о том, как спасти все независимые медиа разом

29 ноября 202319762
Екатерина Горбунова: «О том, как это тяжело и трагично, я подумаю потом»Журналистика: ревизия
Екатерина Горбунова: «О том, как это тяжело и трагично, я подумаю потом» 

Разговор с главным редактором независимого медиа «Адвокатская улица». Точнее, два разговора: первый — пока проект, объявленный «иноагентом», работал. И второй — после того, как он не выдержал давления и закрылся

19 октября 202325175