Кэролайн Криадо Перес - Невидимые женщины [Почему мы живем в мире, удобном только для мужчин. Неравноправие, основанное на данных] [litres]
- Название:Невидимые женщины [Почему мы живем в мире, удобном только для мужчин. Неравноправие, основанное на данных] [litres]
- Автор:
- Жанр:
- Издательство:Литагент Альпина
- Год:2020
- Город:Москва
- ISBN:978-5-9614-3871-0
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Кэролайн Криадо Перес - Невидимые женщины [Почему мы живем в мире, удобном только для мужчин. Неравноправие, основанное на данных] [litres] краткое содержание
Кэролайн Криадо Перес вскрывает в книге серьезную проблему, напрямую влияющую на здоровье и благополучие женщин: разработчики различных продуктов и технологий опираются на данные, собранные о человеке, где «человек» по умолчанию «мужчина». Женщины же с их особенностями и потребностями остаются незамеченными. Автор обходит стороной глубокие дебаты о природе современного феминизма, но представляет бесспорные факты дефицита гендерных данных в самых разных областях – от политики и медицинских исследований до технологий, трудовых отношений, планирования городского пространства и медиа.
Эта блестящая книга, получившая множество престижных наград, доказывает необходимость перемен и заставляет взглянуть на устройство нашего мира по-новому.
Невидимые женщины [Почему мы живем в мире, удобном только для мужчин. Неравноправие, основанное на данных] [litres] - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Разумеется, виной всему вовсе не особенности женской речи. Виноват наш старый друг, дефицит гендерных данных. Голосовые технологии создаются на основе баз данных аудиофайлов с записями речи, так называемых речевых корпусов. И в этих базах данных преобладают записи мужской речи, во всяком случае, насколько мы можем судить, ведь в большинстве речевых корпусов записи не разбиты по половому признаку, что само по себе уже является пробелом в данных [700] http://groups.inf.ed.ac.uk/ami/corpus/ ; http://www1.icsi.berkeley.edu/Speech/papers/gelbart-ms/numbers/ ; http://www.voxforge.org/ .
. Когда Рейчел Татман сравнила доли записей мужской и женской речи в речевых корпусах, оказалось, что только в TIMIT («главном и наиболее известном речевом корпусе Консорциума лингвистических данных») данные разбиты по половому признаку. При этом на долю записей мужской речи приходилось 69 % общего количества записей. Но, вопреки выводам Рейчел Татман, найти записи женских голосов можно: как указано на сайте Британского национального корпуса [701] http://www.natcorp.ox.ac.uk/corpus/index.xml?ID=intro .
, эта база данных является гендерно сбалансированной [702] http://www.natcorp.ox.ac.uk/docs/URG/BNCdes.html#body.1_div.1_div.5_div.1 .
.
Речевые корпуса – не единственные базы данных, используемые для разработки алгоритмов, страдающих от «мужского перекоса». Корпуса текстов (включающие самые разные тексты – от романов до газетных статей и стандартных учебников) используются при разработке программ для переводов, сканирования резюме соискателей при приеме на работу и поиска в сети. Они тоже страдают от нехватки гендерных данных. Прошерстив Британский национальный корпус [703] https://www.english-corpora.org/bnc/ .
(100 млн слов из различных текстов конца XX в.), я обнаружила, что местоимения мужского рода всегда выскакивают в результатах поиска почти вдвое чаще местоимений женского рода [704] Например, he («он») = 633 413, she («она») = 350 294, himself («сам») = 28 696, herself («сама») = 15 751.
. При этом соотношение местоимений мужского и женского рода в Корпусе современного американского английского языка, содержащем 520 млн слов, также составляет 2:1, хотя он включает более современные тексты (вплоть до 2015 г.) [705] He («он») = 3 825 660, she («она») = 2 002 536, himself («сам») = 140 087, herself («сама») = 70 509.
. Алгоритмы, разрабатываемые на основе таких корпусов, страдающих от нехватки гендерных данных, создают впечатление, что в мире действительно преобладают мужчины.
Базы данных изображений тоже, судя по всему, страдают от нехватки гендерных данных. Проведенный в 2017 г. анализ двух наиболее часто используемых баз данных, содержащих «более 100 000 сложных изображений из интернета, снабженных описаниями», показывает, что количество изображений мужчин значительно превосходит количество изображений женщин [706] Chang, K., Ordonez, V., Wang, T., Yatskar, M. and Zhao, J. (2017), ‘Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints’, CoRR , abs/1707.09457.
. Результаты исследований Вашингтонского университета также говорят о том, что женщины недостаточно представлены в Google Images. Этот недостаток касался представительниц 45 профессий, причем наиболее заметное расхождение с реальностью наблюдалось по генеральным директорам компаний. В то время как доля женщин в общей численности генеральных директоров компаний в США достигала 27 %, по результатам поиска в Google Images этот показатель составлял лишь 11 % [707] https://www.eurekalert.org/pub_releases/2015-04/uow-wac040915.php .
. Результаты поиска по запросу «author» («автор») также оказались далекими от реальности: всего 25 % женщин, хотя на самом деле доля писательниц в общем количестве литераторов в США равнялась 56 %. Исследование также показало, что мнимые диспропорции искажают представления о реальном соотношении количества мужчин и женщин в различных профессиях – по крайней мере, в краткосрочной перспективе. С внедрением алгоритмов искажение реальной картины, естественно, примет долгосрочный характер.
Мало того, что женщины представлены в базах данных недостаточно, – они представлены еще и неверно. Авторы статьи, опубликованной в 2017 г., проанализировали стандартные текстовые корпуса, и выяснилось, что женские имена и указывающие на принадлежность к женскому полу слова, такие как woman, girl («женщина», «девушка») и т. д.), чаще употреблялись в связи с семьей, чем с карьерой. С мужскими именами и словами, указывающими на принадлежность к мужскому полу, ситуация была прямо противоположной [708] Caliskan, A., Bryson, J. J. and Narayanan, A. (2017), ‘Semantics derived automatically from language corpora contain human-like biases’, Science , 356:6334, 183–6, https://doi.org/10.1126/science.aal4230 .
. Проведенный в 2016 г. анализ популярной общедоступной базы данных, созданной на основе Google News, показал, что первое место в списке женских профессий занимала «профессия» домохозяйки ( homemaker ), в то время как в отношении мужчин доминировало обозначение maestro («маэстро», «мэтр») [709] Bolukbasi, Tolga, Chang, Kai-Wei, Zou, James, Saligrama, Venkatesh and Kalai, Adam (2016), ‘Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings’, 30th Conference on Neural Information Processing Systems (NIPS 2016), Barcelona, http://papers.nips.cc/paper/6228-man-is-to-computer-programmer-as-woman-is-to-homemaker-debiasing-word-embeddings.pdf .
. В десятку наиболее распространенных профессий, так или иначе связанных с половой принадлежностью, входили философы, социологи, капитаны, администраторы, архитекторы и няни – догадайтесь сами, какие из них ассоциировались с мужчинами, а какие – с женщинами. Вышеупомянутый анализ баз данных изображений 2017 г. также показал, что изображенные объекты и их действия указывали на «весьма серьезный “мужской перекос”» [710] Chang et al. (2017).
. Один из исследователей, Марк Яцкер, описал будущее, в котором робот, обученный с помощью таких баз данных и потому точно не знающий, что делают на кухне мужчины и женщины, «предлагает мужчине пиво, а женщине – помощь в мытье посуды» [711] https://www.wired.com/story/machines-taught-by-photos-learn-a-sexist-view-of-women/ .
.
Подобные культурные стереотипы обнаруживаются и в технологиях искусственного интеллекта, которые уже широко применяются. Например, когда профессор Стэнфордского университета Лонда Шибингер попыталась с помощью программ компьютерного перевода перевести свое интервью одной испанской газете на английский, оказалось, что Google Translate и Systran то и дело заменяют женский род местоимений на мужской, несмотря на наличие в тексте слов, ясно указывающих на половую принадлежность, например profesora (женщина-профессор) [712] https://metode.org/issues/monographs/londa-schiebinger.html .
. При переводе с турецкого на английский словосочетаний с гендерно нейтральными местоимениями Google Translate опирается на стереотипы, свойственные английскому языку. Например, предложение “O bir doktor” («Он (она) врач») программа переводит как «Он врач», а предложение “O bir hemshire” («Она медсестра» или «Он медбрат») – как «Она медсестра». Исследователи обнаружили, что примерно так же программа ведет себя при переводе на английский с финского, эстонского, венгерского и персидского языков [713] Как и в турецком, в этих языках отсутствует грамматическая категория рода.
.
Интервал:
Закладка: