Donate
Technology and Science

Алгоритмы и механики обмана в эпоху капитализма платформ

Mark Cinkevich16/03/20 11:52852
“Focus” D. Wallace Colvard.
“Focus” D. Wallace Colvard.

Капитализм платформ функционирует на базе алгоритмов и считается, что это должно гарантировать прозрачность и честность во взаимоотношениях между предоставителем и потребителем услуг. В массовом сознании программы и алгоритмы должны навсегда избавить нас от тени обмана и жульничества. На самом же деле, платформы применяют целый спектр алгоритмов, которые направлены на введение в заблуждение как потребителей, так и рядовых работников. Такие практики используют компании Убер, Амазон, Фейсбук и др. И, когда возникает ситуация обмана или манипуляции, становится очень сложно понять является ли это коварной бизнес стратегией, технической проблемой или социо-техническим недоразумением. Платформы и приложения, в частности Убер, занимаются закулисными экспериментами в поведенческой науке для манипуляции водителями и пользователями сервиса, с целью максимизации выгоды для корпорации.

Убер манипулирует информацией, которая отображается на дисплее. Приложение создает фантомные автомобили на карте рядом с пользователем, чтобы вызвать ощущение, что машины находятся рядом. Местоположение фантомных автомобилей не соответствует положению реальных авто, и в интерфейсе приложения нет ничего, что бы давало понять, какой автомобиль настоящий, а какой нет. Убер задействует дизайн приложения для создания иллюзии близости автомобилей. Это позволяет быть уверенным, что машина скоро приедет, что создает желание пользоваться сервисом и в будущем. Однако, когда заказ сделан, на карте начинает отображаться уже реальное положение автомобиля.

Сотрудники исследовательской группы Убера также обнаружили, что люди готовы платить по более высоким тарифам, если у них на телефоне низкий уровень заряда батареи. И хотя Убер официально заявляют, что их ценовой алгоритм не использует данные об уровне заряда батареи, сам факт наличия подобных исследований уже вызывает беспокойство.

Водители Убера сталкиваются с манипуляций куда чаще, чем пользователи. Это связано с тем, что весь рабочий процесс водителя происходит через приложение. С помощью сотен социологов и аналитиков данных, «Убер» экспериментирует с игровыми механиками, графическим дизайном и системами нефинансового поощрения. Приложение может подталкивать водителей работать больше и усерднее во временных отрезках и местах, которые менее выгодны для них.

Убер специально утаивает часть информации от своих сотрудников. Например, водитель получает информацию о стоимости и направлении только тогда, когда заказ уже принят. Такая мера применяется для того, чтобы водители брали заказы вне зависимости от потенциальной выгоды и удобства. Убер скрывает от водителей информацию и о времени ожидания клиента. Если пассажира нет, то по истечении 5 минут водитель может отменить заказ и получить комиссию по отмене. Однако Убер не имеет встроенного таймера в приложении. Это делает процедуру отмены заказа смутной для водителя и ставит под угрозу возможное получение комиссии.

В разное время приложение задействовало целый спектр механик и трюков, взятых из компьютерных игр и игровых автоматов. Убер использовал систему достижений и поощрений как например Великолепный Сервис (обозначено эмоджи алмаза) или Интересный Водитель (пара очков Граучо Маркс с носом и бровями). Приложение может ставить задачи перед водителем и стимулировать соревновательный дух. Убер также создал алгоритм подобный тому, что использует Нетфликс. Водитель получает следующий заказ уже в тот момент, когда предыдущий еще не закончен. Такая система поощряет работу “запоем”, когда водитель берет заказ за заказом и не может остановиться как человек, смотрящий Нетфликс.

Алгоритмы активно влияют и на поведение водителей на работе. Например, когда работник хочет выйти из приложения, система может отправить ему автоматическое сообщение вроде: “Ты находишься в 10 евро от того, чтобы заработать 100 евро за день. Ты уверен, что ты хочешь выйти?”. Под сообщением находятся два варианта: “Выйти” или “Продолжить работу”, где кнопка продолжения работы подсвечена. Алгоритм может заставить водителя работать в определенном районе города под видом максимизации его прибыли. Приложение показывает водителям информацию о спросе в виде тепловой карты. Желтый цвет означает, что спрос растет, оранжевый, что спрос может вырасти в ближайшее время, а красный означает большой спрос. Таким образом, приложение побуждает водителей верить в спрос и двигаться в определенные районы города. На самом же деле, тепловая карта — это инструмент влияния на поведение, который никак не связан с реальным спросом на услуги. «Убер» признаются, что так же экспериментировали с использованием женского голоса для коммуникации с водителями, чтобы увеличить их вовлеченность в рабочий процесс.

Водители многократно заявляли о фантомных уведомлениях о заказе. Уведомления появлялись и исчезали так быстро, что их было физически невозможно успеть принять. Водителю могло казаться, что они принимает 100% всех входящих заказов, но при этом не получает дополнительную выплату по причине низкого коэффициента приема заказов. После запроса в службу поддержки, водитель узнает, что коэффициент принятых заказов был 78%. Фантомные заказы, таким образом, могут быть либо коварной бизнес стратегией, чтобы минимизировать количество водителей получающих дополнительную выплату в конце месяца, либо технической проблемой, которая нарушает работу платформы. В итоге, алгоритмы, как основа функционирования платформ в капиталистической системе, вобрали в себя целый ряд обманных практик, включая иллюзию, лудоманию, сокрытие информации, и манипуляцию.

Ссылки:

Calo, Ryan and Rosenblat, Alex, The Taking Economy: Uber, Information, and Power (March 9, 2017). Columbia Law Review, Vol. 117, 2017; University of Washington School of Law Research Paper No. 2017-08. Available at SSRN: https://ssrn.com/abstract=2929643 or http://dx.doi.org/10.2139/ssrn.2929643.

Garber, Megan. “The Menu of the Future Will Make You Order More Nachos.” The Atlantic, Atlantic Media Company, 16 June 2014, www.theatlantic.com/technology/archive/2014/06/chilis-is-installing-tablet-ordering-at-all-its-restaurants/372836/.

Griswold, Alison. “Uber Drivers Are Using This Trick to Make Sure the Company Doesn’t Underpay Them.” Quartz, Quartz, 13 Apr. 2017, qz.com/956139/uber-drivers-are-comparing-fares-with-riders-to-check-their-pay-from-the-company/.

Mateescu, Alexandra, and Aiha Nguyen. “Explainer: Workplace Monitoring and Surveillance.” APO, Data & Society Research Institute, 6 Feb. 2019, apo.org.au/node/218571.

O’Donovan, Caroline. “An Invisible Rating System At Your Favorite Chain Restaurant Is Costing Your Server.” BuzzFeed News, BuzzFeed News, 21 June 2018, www.buzzfeednews.com/article/carolineodonovan/ziosk-presto-tabletop-tablet-restaurant-rating-servers.

Rosenblat, Alex et al. “Discriminating Tastes: Customer Ratings as Vehicles for Bias.” (2016).

Scheiber, Noam. “How Uber Uses Psychological Tricks to Push Its Drivers' Buttons.” The New York Times, The New York Times, 2 Apr. 2017, www.nytimes.com/interactive/2017/04/02/technology/uber-drivers-psychological-tricks.html.

“Amazon’s Last Mile.” Gizmodo, gizmodo.com/amazons-last-mile-1820451224.

Author

Comment
Share

Building solidarity beyond borders. Everybody can contribute

Syg.ma is a community-run multilingual media platform and translocal archive.
Since 2014, researchers, artists, collectives, and cultural institutions have been publishing their work here

About