Ив Жангра - Ошибки в оценке науки, или как правильно использовать библиометрию [калибрятина]
- Название:Ошибки в оценке науки, или как правильно использовать библиометрию [калибрятина]
- Автор:
- Жанр:
- Издательство:ООО «ЛитРес», www.litres.ru
- Год:2018
- ISBN:нет данных
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Ив Жангра - Ошибки в оценке науки, или как правильно использовать библиометрию [калибрятина] краткое содержание
Ошибки в оценке науки, или как правильно использовать библиометрию [калибрятина] - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Что касается научных публикаций, здесь доступны три источника: Web of Science (WoS), Scopus и Google Scholar. Доступ к первым двум осуществляется только по подписке, а вот третий находится (пока) в свободном доступе в интернете. Преимущество первых двух источников в плане оценки состоит в том, что их содержание контролируется и список входящих в них журналов известен. Однако их недостаток состоит в том, что доступ к ним стоит весьма дорого. Google Scholar находится в свободном доступе, однако проблема в том, что его содержание не контролируется и непрерывно меняется, настолько, что невозможно составить себе представление о его реальном содержании в тот или иной момент. Действительно, там можно обнаружить как статьи из реферируемых журналов, так и тексты, кем-то вывешенные на своей персональной веб-странице. Статьи могут появляться и исчезать, так что невозможен никакой контроль за валидностью показателей, рассчитываемых на основании этого источника. К тому же в этой базе данных не упоминается институциональный адрес авторов, что еще более ограничивает возможности ее использования в целях оценки. Наконец Google Scholar – потенциально манипулируемый источник [137].
Сириль Лаббе, французский программист из университета Жозеф-Фурье, показал, как можно манипулировать контентом Google Scholar таким образом, чтобы увеличить h-индекс фиктивного исследователя, названного им Ике Анткаре [138]. Он сфабриковал сотню коротких статеек, взаимно цитирующих друг друга, и вывесил их на веб-сайте. Когда они были проиндексированы Google Scholar, h-индекс этого фиктивного исследователя оказался равен 94, а ведь это почти невозможно для реального исследователя! Этот случай был использован для того, чтобы указать на ограниченность библиометрического метода. На самом же деле это ничего не доказывает по поводу библиометрии, а лишь ставит под вопрос состоятельность Google Scholar как базы данных для библиометрических изысканий. Трюк с Ике Анткаре был бы невозможен в Scopus или Web of Science, поскольку в них учитываются лишь журналы, публикующие анонимно рецензируемые статьи, а не спонтанно вывешиваемые в интернете документы. И хотя на агрегированном уровне наблюдается корреляция между результатами, полученными при использовании разных баз данных, в случае, когда оценка производится на индивидуальном уровне, качество базы данных имеет ключевое значение для правильной интерпретации показателей цитируемости.
Бесплатный и неконтролируемый доступ к Google Scholar и к интернету, в отличие от платного доступа к Scopus и Web of Science, разумеется, внес свою лепту в создание атмосферы оценочной анархии, которая нередко расценивается как демократизация [139]. В самом деле, теперь любой исследователь может попробовать измерить свою заметность и качество, состряпав спонтанный показатель, основанный на количестве посещений веб-страницы (hits) в Google Scholar и, с недавних пор, упоминаний в «Твиттере»! В результате в последнее время участились спонтанные применения оценивания и создание фиктивных показателей научного импакта, приводящие к некоторому хаосу в академическом мире, чьи представители не всегда способны адекватно оценить качество запускаемых в оборот измерений. Такие показатели способствуют созданию рейтингов, больше похожих на «черные ящики», но подающихся в качестве надежных фактов, которые должны приниматься во внимание чиновниками разных уровней при проведении научной политики.
Таким образом, источник используемых данных представляет собой важный аспект любого оценивания. Соревнование между фирмами, участвующими на этом рынке, непосредственно влияет на содержимое библиометрических баз данных. Примерно с середины 2000-х годов наблюдается существенный рост числа журналов, зарегистрированных в WoS. Во времена, когда у Института научной информации Гарфилда была монополия на библиометрические данные, он один определял критерии качества и не стремился увеличивать число анализируемых журналов, индексируя лишь наиболее значимые издания. С выходом на этот рынок Scopus конъюнктура изменилась: владелец новой базы данных, издательский дом «Эльзевир», сделал своим конкурентным преимуществом тот факт, что он покрывает намного больше журналов. А это привлекательно для библиотек, чьей целью является максимально широкий охват научной периодики. Таким образом, количество включенных в базу данных журналов стало аргументом продаж и веской причиной для того, чтобы купить подписку: Scopus ежегодно индексирует более 16 000 журналов, а Web of Science – чуть более 12 000. Следует, однако, отметить, что состав обеих баз данных совпадает более чем на 50 % [140]. Ограничения библиометрических показателей
Локальный или, напротив, универсальный характер предметов в разных дисциплинах не может не влиять на валидность библиометрических показателей, учитывая неполное освещение некоторых областей науки в самых популярных базах данных (Web of Science и Scopus). Так, очевидно, что невозможно использовать удельный вес статей в международном соавторстве в качестве индикатора интернационализации в областях, где преобладают практики единоличного авторства статей, как это, например, до сих пор имеет место в истории или философии. Точно так же сложно ожидать одинакового уровня международного сотрудничества от исследований, имеющих объектом сельское хозяйство в Северной Франции и распределение черных дыр во Вселенной. Эти простые примеры напоминают нам, насколько важно хорошо понимать природу используемых данных, если мы хотим быть уверенными, что они адекватно отвечают на поставленный вопрос. Они также в очередной раз указывают на необходимость принимать во внимание специфику дисциплин и их предметов, от которой зависит релевантность используемого показателя. Следует помнить и о том, что широта охвата дисциплин, специальностей и стран варьирует в зависимости от используемой базы данных.
Другое важное ограничение библиометрии состоит в том, что базы данных включают не все журналы, в которых публикуются исследователи. Этот факт неоднократно подчеркивался аналитиками из разных лабораторий, которые смогли точно установить присутствие или отсутствие публикаций своих сотрудников в различных базах данных [141]. Учитывая закон больших чисел, чем меньше масштаб анализа, тем менее надежны и репрезентативны результаты и тем осторожнее их следует анализировать. Явная тенденция рассматривать базы данных как вещи в себе заставляет забывать тот простой факт, что не учтенные в них работы (и особенно работы не на английском языке) тем самым обесцениваются, а между тем никто еще не доказал, что не внесенные в базы журналы обладают худшим качеством.
Часто отмечают, что в Web of Science (или в Scopus) не индексируются книги, что на деле путают с цитированием книг. Ведь совершенно очевидно, что Web of Science (так же как и Scopus) содержит библиографические описания всех книг, процитированных в статьях. Вполне возможно, что распределение ссылок в журналах по общественным наукам похоже на то, которое обнаруживается в книгах по тем же дисциплинам. Действительно, было бы крайне удивительным, если бы какой-либо автор, мало цитируемый в журналах, вдруг стал бы обильно цитироваться в книгах, тем более что последние часто основываются на уже опубликованных статьях, отредактированных и собранных вместе. Если это так, то можно с полным основанием заключить, что инвестиция в создание индекса книг компанией Thomson Reuters, недавно выпустившей на рынок Индекс цитирования книг (Book Citation Index), окажется бесполезной. Ведь важно не абсолютное число ссылок, а их распределение и относительная представленность в той или иной области. Грубо говоря, библиометрия имеет дело с чем-то вроде репрезентативной выборки. В результате добавления воды в бассейн ее средний уровень повышается, однако ее состав от этого не меняется – иначе говоря, структура выборки остается прежней. Вот почему рейтинги совокупной продукции стран в базах данных Scopus и Web of Science примерно одинаковы, хотя на уровне дисциплин иногда выявляются существенные различия [142]. И наконец, следует отметить, что Индекс цитирования книг еще более ориентирован на англо-американскую продукцию, чем базы данных журналов (которые с годами мало-помалу диверсифицировались), а это делает его использование для оценки еще более проблематичным.
Читать дальшеИнтервал:
Закладка: