Ив Жангра - Ошибки в оценке науки, или как правильно использовать библиометрию
- Название:Ошибки в оценке науки, или как правильно использовать библиометрию
- Автор:
- Жанр:
- Издательство:ООО «ЛитРес», www.litres.ru
- Год:2018
- ISBN:нет данных
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Ив Жангра - Ошибки в оценке науки, или как правильно использовать библиометрию краткое содержание
Ошибки в оценке науки, или как правильно использовать библиометрию - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Будучи горячим сторонником использования ИНЦ, Гарфилд утверждал, что анализ цитирования позволяет предсказать, кому будет присуждена Нобелевская премия [95] 95 Eugene Garfield, “Citation indexing for studying science,” in Nature , 227, 15 August 1970, pp. 669–671.
. Но это было явным преувеличением: хотя Thomson Reuters и делает регулярно такие предсказания, чтобы популяризировать использование ИНЦ, они все-таки нереалистичны, поскольку один анализ ссылок не позволяет учесть все разнообразие исследовательских областей, а также стратегии Нобелевских комитетов, которые заботятся о соблюдении баланса между дисциплинами от года к году. А главное, часто цитируемых авторов слишком много по сравнению с небольшим числом Нобелевских премий, присуждаемых ежегодно [96] 96 См.: Yves Gingras, Matthew L. Wallace, “Why it has become more difficult to predict Nobel prize winners: a bibliometric analysis of nominees and winners of the chemistry and physics prizes (1901–2007),” in Scientometrics , 82, 2010, pp. 401–412.
.
Гарфилду как основателю Индекса научного цитирования было очевидно, что любой инструмент может быть использован не по назначению и необоснованно. «Научному сообществу надлежит предотвращать злоупотребления при использовании ИНЦ, обращая должное внимание на его корректное использование» [97] 97 Eugene Garfield, “Citation indexing for studying science,” in op. cit. , p. 671.
. Ту же позицию он занимает и в отношении журнального импакт-фактора, который был создан для помощи в отборе журналов библиотечными работниками, но который, как мы видим, в отсутствие критической рефлексии превратился в инструмент оценивания исследователей.
Несмотря на эти призывы к бдительности, библиометрия начала постепенно проникать в процесс оценивания исследователей уже с 1970-х годов. Как отмечает социальный психолог Джанет Бавелас, академический мир начиная с 1960-х годов настолько изменился, что стало невозможным, как прежде, назначать профессоров лишь по принципу включенности в персональные сети ( old boy network ) и основываясь на авторитете деканов или заведующих кафедрами [98] 98 См.: Janet B. Bavelas, “The social psychology of citations,” in Canadian Psychological Review , 19 (2), 1978, pp. 158–163.
. И как раз в момент поиска системы оценки, которую можно было бы считать более демократической, объективной и менее произвольной, стал доступен Индекс научного цитирования. К тому же быстрый рост числа вузовских преподавателей и исследователей в течение этого периода (1965–1975) делал еще более сложным поиск и отбор кандидатур, которых стало слишком много, чтобы все могли знать их лично. Добавим к этому, что цифры с давних пор обладают аурой объективности [99] 99 См.: Theodore M. Porter, Trust in Numbers. The Pursuit of Objectivity in Science and Public Life (Princeton: Princeton University Press, 1996).
. Так были созданы все необходимые предпосылки к тому, чтобы цитирование стало использоваться как показатель качества.
В мае 1975 года в журнале Science была опубликована подробная статья о растущем использовании цитатного анализа для оценивания исследователей. В ней упоминалась профессор биохимии, которая оспаривала свое увольнение как несправедливое, утверждая на основании количества ссылок на ее статьи, что ее цитировали гораздо чаще, чем коллег-мужчин, которых тогда же повысили в должности [100] 100 См.: Nicholas Wade, “Citation analysis: a new tool for science administrators,” in Science , 188, 2 May 1975, pp. 429–432.
. На этом примере видно, что цитирование — это орудие, используемое не только руководителями институций, но и самими исследователями в тех случаях, когда им это выгодно. В связи с упрощением доступа к базам данных по цитированию, таким как Google Scholar, некоторые ученые стали указывать в резюме число ссылок на свои статьи, а также свой h-индекс, тогда как ценность этих показателей сомнительна и может привести к ошибочной оценке значимости кандидатур.
В середине 2000-х годов, когда в научных кругах стали разрабатывать библиометрические показатели для придания большей объективности индивидуальному оцениванию, американский физик Хорхе Е. Хирш из Калифорнийского университета в Сан-Диего предложил свой h-индекс (индекс Хирша).
Этот индекс равен числу статей N, опубликованных исследователем и процитированных по меньшей мере N раз каждая с момента их публикации. Например, у автора, опубликовавшего 20 статей, из которых 10 цитируются как минимум по 10 раз каждая, h-индекс равен десяти. Произвольность этого индекса просматривается уже в самом названии статьи, притом опубликованной в журнале, считающемся престижным, Proceedings Национальной Академии наук США: «Индекс для квантификации научной продукции ( output ) исследователя» [101] 101 См.: Jorge E. Hirsch, “An index to quantify an individual’s scientific research output,” Proceedings of the National Academy of Sciences , 102, 2005, pp. 16569–16572.
. В действительности этот индекс не измеряет ни количество ( ouput ), ни качество или импакт, а представляет собой некое сочетание этих двух параметров. Он произвольно комбинирует количество опубликованных статей и количество ссылок на них. Считается, что этот индекс позволяет не ограничиваться количеством статей и учитывать также их качество. В соответствии с распространенным стереотипом опубликовать огромное количество плохих статей просто; поэтому число опубликованных статей не считается надежным показателем достоинств исследователя. Но проблема в том, что было быстро доказано: h-индекс очень сильно коррелирует с общим числом опубликованных статей и, таким образом, оказывается избыточным [102] 102 См.: Thed N. van Leeuwen, “Testing the validity of the Hirsch-index for research assessment purposes,” in Research Evaluation , 17, 2008, pp. 157–160.
.
Более того, у него нет ни одной из базовых характеристик хорошего показателя (мы еще вернемся к этому вопросу в главе IV). Людо Уолтман и Неес Ян ван Эк продемонстрировали, что при сравнении исследователей, количество ссылок на которых возрастает в равной пропорции, h-индекс может давать противоречивые результаты. Эти авторы заключают, что h-индекс «не может считаться подходящим показателем общего научного импакта исследователя» [103] 103 Ludo Waltman, Nees Jan van Eck, “The inconsistency of the h-index,” 2011, in ArXiv:1108.3901v1.
. Этот небрежно сконструированный показатель даже опасен, когда служит для принятия решений о найме, поскольку его использование может приводить к непредсказуемым результатам. Это легко показать на одном простом примере. Сравним два случая: молодой исследователь опубликовал только три статьи, но каждую из них процитировали 60 раз (за фиксированный промежуток времени); второй исследователь того же возраста более плодотворен и имеет в активе 10 статей, каждая из которых процитирована 11 раз. Последний имеет, таким образом, индекс Хирша 10, тогда как первый — всего 3. Можно ли на основании этого заключить, что второй в три раза лучше, чем первый, и поэтому его нужно взять на работу или повысить в должности? Разумеется, нет…
Интервал:
Закладка: