Наукометричні бази: історичний аспект, призначення, використання, кількісні показники

Наукометричні бази: історичний аспект, призначення, використання, кількісні показники

 

У 2012 році набули чинності два накази МОН України від 17.10.12 № 1111 та № 1112 («Про затвердження Порядку формування Переліку наукових фахових видань України» та «Про опублікування результатів дисертацій на здобуття наукових ступенів доктора і кандидата наук» відповідно). Найбільший резонанс серед здобувачів наукових ступенів викликали положення щодо необхідності публікації статей у виданнях «іноземних держав або України, які включені до міжнародних наукометричних баз», та «наявності статей англійською мовою на веб-сторінці видання». Відповідно, постала гостра потреба визначити поняття «науково-метрична база», навести їх перелік, список видань (бажано вітчизняних), що індексуються у зазначених базах, та усвідомити сенс розміщення публікацій у цих журналах.

У багатьох країнах світу наукометричні показники вже широко застосовують на практиці і враховують:

-  під час прийому на роботу в престижні університети та формування професорсько-викладацького складу;

-  при оцінці власного наукового потенціалу та формуванні заходів щодо його підвищення;

-  для підвищення конкурентоспроможності конкурсних і грантових пропозицій;

-  при виборі видання для розміщення результатів власних досліджень;

-  для визначення перспективних напрямів розвитку науки, їх фінансування тощо.

Проте, чи можливо так само вільно користуватися надбаннями науково-метричних систем в Україні і що для цього потрібно?

 

ІСТОРИЧНИЙ АСПЕКТ. За визначенням В.В. Налімова та З.М. Мульченко, «наукометрія – це кількісний метод вивчення науки як інформаційного процесу». Відповідно наукометричну базу можна визначити як платформу, що депонує наукові роботи, обробляючи списки процитованої літератури, обчислює певні кількісні показники, на основі яких можна проаналізувати впливовість чи авторитетність діяльності того чи іншого видання, установи, організації, навчального закладу, окремого науковця тощо.

Одразу варто підкреслити, що зазначені «впливовість і авторитетність» можуть лише побічно характеризувати якість, тому не слід ототожнювати призначення наукометричних показників із апаратом рецензування, який визначає якість безпосередньо. З іншого боку, списки літературних посилань легко обробити й перетворити на позиції в рейтингу, тоді як визначити найвагоміші параметри «якості» та розробити чітку шкалу їх оцінки – складне завдання. Отже, з-поміж двох варіантів – об’єктивної побічної чи суб’єктивної прямої оцінки якості – в сучасному науковому просторі віддають перевагу першому, хоча, без сумніву, більш оптимальним є комплексний підхід.

Розглянемо наймасштабніші наукометричні бази та кількісні показники в історичному аспекті їх створення. В 1960 р. Інститут наукової інформації (Institute for Scientific Information, ISI) на чолі з Юджином Гарфілдом започаткував систему розрахунку індексу наукових посилань – Science Citation Index (SCI) – бібліографічного ресурсу, який щороку обробляв списки літератури 2500 провідних наукових журналів і публікував результати в кількох розділах, зокрема Citation Index (індекс посилань), Source Index (індекс джерел) та Permuterm Subject Index (покажчик ключових слів). Слід зазначити, що у вітчизняній літературі SCI часом перекладають як «індекс наукового цитування», тому деякі автори вважають його кількісним показником. Насправді ж у цьому випадку «Index» означає «алфавітний покажчик», а не «коефіцієнт», і його не можна використовувати для рейтингового оцінювання наукових робіт.

Основним надбанням цього проекту була можливість пошуку інформації не лише за автором чи тематичним рубрикатором, а й за списком цитованої літератури. Наприклад, знаючи одного провідного фахівця в певній галузі, можна було простежити роботи, в яких є посилання на нього, але які, можливо, були віднесені рубрикаторами до суміжних галузей. До того ж створена інформаційна база була доступна для статистичного оброблення. Проте таке періодичне видання аналізувало лише обмежену кількість наукової періодики, яка на перший погляд не могла бути репрезентативною сукупністю. З іншого боку, проведення спеціальних розрахунків підтвердило, що видання, які входять до бази SCI, хоча і становлять лише 2-3% загальної кількості журналів у всьому світі, дозволяють віднайти близько 50% необхідної інформації (тобто на них припадає 50% усіх цитувань у світі).

Таким чином, стратегія SCI полягала у включенні до своєї бази лише тих видань, які входили до так званого «інформаційного ядра» в кожній галузі науки, що потребувало створення критеріїв оцінювання наукової значущості журналів. Добираючи нові видання до SCI, Ю. Гарфілд звернув увагу на те, що рейтинг журналів, складений на основі загальної кількості посилань на них, значно відрізняється від такого, в якому порівнюється середня кількість посилань на одну статтю. Він почав застосовувати розрахунковий показник, який, на його думку, був більш об’єктивним засобом оцінювання впливовості видання, спочатку для відбору журналів до бази SCI, а згодом фактор «впливовості», або імпакт-фактор, було запропоновано для порівняння журналів усередині бази.

Отже, хоча SCI був лише бібліографічною базою даних, призначеною для полегшення пошуку наукової інформації, в 1974 р. на його основі було розпочато публікацію Journal Citation Reports (JCR) — періодичного видання, метою якого була і залишається критична оцінка провідних світових видань за допомогою кількісної статистичної інформації, основаної на даних літературних посилань. На завершення історичного екскурсу слід зазначити, що з 1992 р. ISI з його продуктами стали частиною Thomson Reuters. SCI й дотепер доступний для дослідників, адміністраторів як пошуковий інструмент, що охоплює близько 3700 провідних світових наукових журналів; JCR публікує низку наукометричних показників щодо більше ніж 10 тисяч наукових видань, які входять до бази Web of Science, створеної на основі SCI, Social Sciences Citation Index та Arts and Humanities Citation Index.

WEB OF SCIENCE. Отже, першою і однією з найавторитетніших наукометричних баз світу є Web of Science, яка, у свою чергу, є частиною платформи Web of Knowledge. Перейдемо до аналізу кількісних показників, які розраховуються в цій базі і публікуються в Journal Citation Reports.

Спершу слід розглянути вже згаданий нами імпакт-фактор, який розраховують як відношення кількості посилань протягом поточного року на статті певного журналу попередніх 2 років до кількості статей, опублікованих у журналі за ті самі попередні 2 роки. Інакше кажучи, це середня кількість посилань на одну статтю журналу впродовж попередніх два років. Таким чином, класичний імпакт-фактор є дворічним і не враховує цитувань і статей, опублікованих у поточному році. Як уже було зазначено, такий показник є більш об’єктивною оцінкою авторитетності видання, ніж загальна кількість посилань на нього. Проте він не позбавлений недоліків, які останнім часом все частіше обговорюють у науковій спільноті.

  1. Сам засновник «фактору впливовості» Ю. Гарфілд зазначав, що залежно від часового проміжку, який обрано для розрахунку (класично – 2 роки), значення показника можуть істотно змінюватись. Деякі автори пропонують для кожного видання обчислювати індивідуальний часовий проміжок, на якому імпакт-фактор є найвищим, і використовувати саме це значення. Як варіант вирішення цієї проблеми JCR наразі публікує, крім класичного, також п’ятирічний імпакт-фактор.
  2. Ю. Гарфілд також звертав увагу на можливість помилок у системі через некоректно оформлені бібліографічні списки, які особливо часто виникали, коли два журнали мали дуже подібні назви, і цитування одного відносили на рахунок іншого, або коли журнал виходив у кількох мовних варіантах і його цитування могли зараховувати двічі.
  3. Інша проблема стосується методологічної похибки розрахунку. Виявилося, що кількість статей у чисельнику формули визначалася лише як сума оглядових статей та оригінальних досліджень, тоді як у знаменник потрапляли цитування статей інших розділів, таких, як листи до редакції, короткі повідомлення тощо. Якщо для журналів із низьким значенням імпакт-фактора така похибка була несуттєвою, то для провідних видань вона могла становити до 40% значення показника.
  4. Оскільки основною метою кількісного оцінювання наукових видань було порівняння їх між собою зі створенням певної рейтингової системи, окремою проблемою стала стабільна різниця середніх значень показника в різних дисциплінах. Так, традиційно вважають, що журнали в галузі фізики й математики мають найнижчі показники, а загальнобіологічні та медичні – найвищі. Для диференційного підходу і врахування зазначеного явища Thomson Reuters створила окремий продукт – Essential Science Indicators, в якому можна визначити положення конкретної організації, країни, журналу відносно середнього рівня в конкретній сфері.
  5. Проблема самоцитування. Загалом наявність у списках літератури посилань на видання, в якому вони опубліковані, цілком нормальне явище. Проте задля більшої інформативності та зменшення можливості маніпуляцій, спрямованих на штучне підвищення значень показника, в JCR окремо розміщують показник самоцитування та «виправлений» імпакт-фактор, тобто без урахування самоцитувань.
  6. Формула імпакт-фактора передбачає середню кількість цитувань на одну статтю протягом певного періоду часу, проте чи можна прирівняти видання, в якому 10 статей процитовано в середньому 40 разів, із виданням, в якому за той самий час 100 статей отримали по 40 посилань?

Серед інших кількісних показників Web of Science слід згадати Іmmеdіасу Іпdех (індекс оперативності) – відношення кількості цитувань певного журналу протягом певного року до загальної кількості статей, опублікованих у тому ж році. Цей індекс призначений для оцінювання швидкості й ефективності подання опублікованої в журналі інформації науковій спільноті.

Окремо слід зупинитися на індексі Еigen factог (власний фактор), покликаному диференційно враховувати цитування з різних джерел. Наприклад, посилання у статті в журналі «Nature» розцінюють як більш вагоме порівняно з посиланням у маловідомому виданні.

Загальна сума індексів Eigen factor для всіх журналів становить 100; індекс для кожного журналу окремо є відсотком від загальної суми й обчислюється без урахування самоцитувань. Оскільки розрахований показник значною мірою залежить від кількості статей у виданні, було додатково створено індекс Агticle Іnfluence (індекс впливовості статті), який є відношенням Eigen factor до кількості статей.

Окрім можливості розрахунку кількісних показників на основі бібліографічних посилань Thomson Reuters розробила спеціальний інструмент ІпСites, який на основі аналізу зазначених індексів покликаний:

-  порівнювати кількісні показники установи з іншими організаціями у певній сфері інтересів;

-  виявляти впливових дослідників і тенденції у різних галузях науки;

-  визначати потенційні напрями розвитку;

-  раціонально розподіляти кошти;

-  оцінювати активність співпраці та її перспективи тощо.

З можливостями використання цього інструменту можна ознайомитись як на сайті Thomson Reuters, так і в багатьох статтях із цієї тематики. Зазначимо лише, що для керівників і адміністраторів він є надзвичайно зручним для аналізу діяльності та стратегій розвитку організацій. Проте для цього необхідно, щоб більшість публікацій такої установи було розміщено у виданнях, що входять до бази Web of Knowledge, або хоча б журнали цієї бази активно цитували ці статті.

SCOPUS. У 2004 р. видавництво Elsevier ввело в дію наукометричну базу Scopus, основною метою якої є охоплення більшості наукових журналів світу (нині близько 20 тисяч). Оскільки Sсоpus з’явився набагато пізніше за Web of Scieсе, у його розробників була можливість проаналізувати недоліки попередників і створити більш коректні інструменти кількісного оцінювання наукових видань. Одним із основних показників, які використовує Scopus для оцінювання авторитетності видань, є SC Imagе Jornal Rank (SJR), подібний до імпакт-фактора, але, так само як і Eigen factor із JCR, є «зваженим показником», оскільки враховує «авторитетність» цитувань. Показник розраховують у результаті ітеративної процедури, він відрізняється від інших кількісних показників наукометричних баз складністю. Методологічні аспекти його обчислення (із принципом розрахунку формули знаходяться в першоджерелі [Gonzтlez-Pereira B., Guer- rero-Bote V.P., Moya-Anegоn A new approach to the metrics of journals’ scientific prestige: The SJR indicator // J. Inf. - 2010. - V. 4, N 3. - P. 379-391. doi: 10.1016/j.joi. 2010.03.002.]). Коротко лише наведемо формальні відмінності між SJR та Eigenfactor:

-  перший із них враховує посилання за 3 роки, тоді як другий – за 5;

-  при розрахунку SJR самоцитування обмежується 33%, у його «альтернативи» виключається повністю;

-  SJR не залежить від кількості статей у журналі, а Eigenfactor залежить.

На відміну від показників JCR, які публікуються у платному виданні, основні значення SJR містяться у відкритому доступі. Легко встановити також, чи належить журнал, який вас цікавить, до цієї бази (можна скористатися Journal Search), або ж знайти перелік журналів вашої країни з певної галузі (Journal Rankings). Цікавим і дуже зручним інструментом на основі розрахункових даних є можливість порівняння різних країн або журналів за обраними показниками. Наприклад, порівняємо Україну з Російською Федерацією, Польщею та Білоруссю за кількістю цитувань. За період 1995-2015 рр. кількість цитувань наукових робіт значно зменшилась: Росія – з 215 тис до 25 тис, Польща – з 120 тис. до 25 тис., Україна – з 24 тис. до 8 тис., Білорусь – з 9 тис. до 3 тис.

Іншим кількісним інструментом Sсоpus є SNIP (Source Normalized Impact per Раper). Як видно з назви цього показника, його розроблено для врахування «поправки на галузь науки». Вище ми зазначали, що в різних сферах науки середні значення показників імпакт-фактора значно різняться. Задля врахування цього явища фахівці розробили формулу, що є відношенням кількості посилань у поточному році на статті журналу за попередні 3 роки до потенціалу цитування для цього документа. При цьому потенціал цитування є середньою кількістю літературних посилань у перерахунку на одну статтю з «оточення» журналу. Під «оточенням» розуміють усі журнали, які впродовж поточного року посилалися на випуски конкретно цього видання за останні 10 років, але лише в межах бази Scopus. Таким чином, чим більша активність цитувань у певній галузі (чим довший середній список літератури), тим меншим буде показник. У такий спосіб видання у сфері зі звично низьким рівнем цитувань мають змогу вирівнюватися з іншими. Проте на активність цитувань впливає не лише галузь науки. Так, не можна ставити в один ряд фундаментальні та клінічні журнали, а також ті, що видаються багато років, і ті, що лише почали виходити і присвячені новому напряму. Тому в 2012 р. було переглянуто спосіб розрахунку SNIP. Із рейтингом наукових видань відповідно до нової формули SNIP можна ознайомитись на сайті партнера Sсорus — CWTS Journal Indicators у розділі «Indicators».

На завершення огляду науково-метричної бази варто зазначити, що на зразок InCites (Thomson Reuters) Scopus також розробив аналітичний інструмент під назвою SciVal Spotlight, за допомогою якого можна:

-  дізнатися про наукові потужності власної установи, країни, конкурентів;

-  визначитись із науковими напрямками, які розвиваються і фінансування яких є доцільним;

-  отримати список провідних науковців у певній сфері для запрошення на роботу;

-  визначити наявність у світі потенційних партнерів для співпраці тощо.

Знову-таки, інструмент надзвичайно зручний для адміністраторів різного рівня, дозволяє уникнути копіткого аналізу багатьох показників і полегшує прийняття стратегічних рішень. Однак, для його використання відповідна установа, наукове товариство, країна мають бути достатньо представленими у базі Scopus (на сьогодні у Scopus перебуває близько 20 періодичних видань України, переважно в галузі матеріалознавства, фізики, хімії й математики).

РОСІЙСЬКИЙ ІНДЕКС НАУКОВОГО ЦИТУВАННЯ (РИНЦ). У 2005 р. на замовлення Міністерства освіти і науки РФ Наукова електронна бібліотека розробила систему національного індексу наукового цитування. Оскільки лише невелика частка фахових видань РФ інтегрована в Scopus та Web of Science, об’єктивно проаналізувати стан розвитку науки всередині країни за їх допомогою практично неможливо. До того ж відомо, що кожного року обидві бази поновлюють свої списки новими виданнями, проте з кількох тисяч журналів із усього світу Web of Science обирає близько 10-12%, а Scopus ~ 50%. Процедура рецензування триває майже рік, а в разі відхилення повторний запит на реєстрацію можна надсилати лише через 2 роки. Мабуть, не варто пояснювати, чому мине ще немало часу, поки більшість видань пострадянського простору опиняться в бажаному науковому  репозиторії.

Отже, після створення РИНЦ обов’язковою умовою Вищої атестаційної комісії РФ до періодичних видань, схвалених для публікації результатів дисертацій на здобуття наукових ступенів, є регулярне надання інформації про опубліковані статті до національної наукометричної бази.

Додатковою перевагою для користувачів та авторів країн пострадянського простору є повністю відкритий доступ до всіх наукометричних показників. Важливо також, що РИНЦ має певні угоди з Thomson Reuters та Elsevier, які дозволяють робити запити безпосередньо в бази даних Scopus та Web of Science й отримувати звідти поточні значення показників цитування публікацій. У такий спосіб усі зареєстровані в РИНЦ автори мають можливість безкоштовно простежувати активність цитування своїх робіт одразу в усіх трьох наукометричних базах. З 2011 р. автори можуть самостійно реєструватися в системі й коректувати списки власних публікацій, що дає змогу уникати плутанини, яка часом виникає через помилки у написанні прізвищ та ініціалів.

Щодо кількісних показників, то РИНЦ користується вже розробленими раніше імпакт-фактором (дво- і п’ятирічним), коефіцієнтом самоцитування (додатково розраховує імпакт-фактор без самоцитування), час півжиття публікації (медіана хронічного розподілу посилань). Для авторів розраховують також індекс Хірша, але цей показник не є винаходом РИНЦ. До того ж є можливість сортування публікацій і цитувань за тематикою, ключовими словами, організацією, авторами, роками та ін., що дає можливість проаналізувати ширину спектра зацікавленої аудиторії, динаміку цитувань тощо. Наприклад, журнал має непогані показники імпакт-факторів, проте, якщо більшість цитувань належить співробітникам організації – засновника видання, цінність кількісних показників втрачається. Зазначимо, що згадані показники розраховують не лише для видань, а й для організацій, авторів, видавництв, що дозволяє визначити основних партнерів для співпраці, галузь наукових інтересів та оцінити публікаційну активність і ефективність у динаміці.

На базі РИНЦ розробляють також новий аналітичний продукт – Science Index, який дає змогу проводити комплексне аналітичне і статистичне дослідження публікаційної активності учених, наукових організацій та їхніх підрозділів. Science Index складається із трьох частин, орієнтованих на різні категорії користувачів: у 2011 р. стартував розділ Science Index* [Автор], у 2012 р. — Science Index* [Організація], у 2013 р. – Science Index* [Видавництво]. На відміну від інших інструментів і послуг, які надає Наукова електронна бібліотека, проект Science Index є комерційним і вимагає придбання організаціями ліцензії.

На сьогодні в базі РИНЦ перебуває близько 300 українських журналів, що майже в 15 разів більше, аніж у Master Journal List Web of Science або Scopus.

GOOGLE SCHOLAR. На завершення слід згадати також Google Scholar, оскільки часто виникає питання, чи можна його віднести до наукометричних баз. Зазначений інструмент є пошуковою системою, орієнтованою на наукову літературу, що дає змогу відстежувати цитування та розраховувати деякі показники (індекс Хірша). Точного переліку джерел, що становлять базу Google Scholar, не оголошують. Процедури рецензування під час відбору видання до цієї бази також немає, що унеможливлює контроль якості та легітимності джерел інформації, і, на відміну від Web of Science, Scopus та РИНЦ, де редактори мають самостійно пропонувати свій журнал на включення до однієї із зазначених баз, Google Scholar самостійно вносить видання до свого переліку. Тому Google Scholar не можна розглядати як повноцінну наукометричну платформу (в розумінні наказу № 1112).

Проте, якщо поглянути з іншого боку, недоліки системи можуть обернутися на її переваги. Річ у тому, що кількість цитувань, які виявляє кожна з наукометричних баз, обмежена переліком видань, що становлять її основу, і хоча різні бібліометричні платформи укладають між собою угоди про обмін літературними посиланнями, все одно їх потужності в цьому відношенні залишаються обмеженими, що позначається на об’єктивності розрахунків. На противагу цьому Google Scholar на сьогодні демонструє найкращі результати за спроможністю відшукувати цитування, оскільки деякі з них розміщені в патентах, збірниках конференцій, книгах, тобто в документах, мало представлених у найбільших наукометричних базах. Швидше за все, введений у дію в 2004 р. Google Scholar лише набирає оберти і згодом стане найбільш всеосяжною бібліометричною системою. На нинішньому ж етапі розвитку вона зручна для використання авторами з метою відстеження власних цитувань, пошуку наукової інформації, її додатковою перевагою є повністю відкритий доступ.

PUBMED. Оскільки біомедичні науки становлять значну частку загальної кількості публікацій у світі, слід також коротко охарактеризувати найбільшу спеціалізовану пошукову систему в цій сфері. PubMed використовує переважно базу даних Medline, створену Національною медичною бібліотекою США (U.S. National Library of Medicine). При цьому метою зазначених продуктів не є підрахунок кількісних показників індексованих видань, тому вони не належать до наукометричних.

Проте 100% видань, що входять до переліку Medline, передаються до Scopus, тому за умови проходження процедури рецензування комісією Medline (за рік приймають дещо менше 50% поданих на розгляд титулів; процедура рецензування за рівнем подібна до такої в Scopus) можна бути впевненим у його прийнятті до Scopus. Разом із тим, редакторам періодичних видань, які зацікавлені в якісному розрахунку наукометричних показників, після інтеграції в Medline радять пройти процедуру формальної перереєстрації в Scopus, оскільки останній (на відміну від Medline) вимагає надання списків процитованої літератури.

ІНШІ БАЗИ ДАНИХ. У різних галузях науки на зразок PubMed є інші спеціалізовані системи: Astrophysics, Mathematics, Chemical Abstracts, Agris, Geo-Ref та ін. Кожна з них призначена для пошуку інформації відповідної спрямованості і не має на меті оброблення списків літератури з подальшим складанням рейтингу журналів, науковців, установ тощо. Слід мати на увазі, що будь-яка база даних, обмежена за науковим напрямом, не може претендувати на об’єктивний підрахунок наукометричних показників, оскільки значна кількість цитувань може надходити із суміжних за напрямом видань.

Крім того, є й інші національні індекси наукових цитувань — Korean Science Citation Index, Сhinese Science Citation Database, Indian Citation Index та ін. Усі вони зорієнтовані на власні національні особливості, в тому числі мовні, що обмежує можливості їх використання вітчизняними науковцями.

ІНДЕКС ХІРША. Такий показник, як індекс Хірша, вважаємо за краще розглянути окремо від бібліографічних баз (хоча його широко використовують більшість із них), оскільки його було створено незалежно. У 2005 р. Хорхе Хірш запропонував новий наукометричний показник, який, за визначенням автора, дорівнює h, якщо h статей автора процитовано як мінімум h разів, тоді як інші публікації мають менше, ніж h цитувань. Отже, якщо автор має 4 статті, які процитовані по 4 рази, його h-індекс становить 4. Якщо ж автор має одну статтю з 10 цитуваннями, дві – з 6 та три – з 4, то індекс все одно дорівнює 4, оскільки з перелічених як мінімум 4 статті процитовано мінімум 4 рази кожна. Особливостями цього показника є врахування лише науково вагомих статей, відсутність обмежень часовим проміжком. Проте h-індекс не позбавлений деяких недоліків, а саме:

-  індекс не враховує ступінь внеску кожного співавтора в конкретну статтю (зараховується однакова кількість цитувань для всіх співавторів), хоча і вважають, що загалом показник дозволяє відсіяти випадкових співавторів – якщо вони опинилися в списку авторів однієї популярної статті, вона помітно не вплине на їхній h-індекс;

-  за високих значень індексу Хірша порівняння між авторами (а на сьогодні показник розраховують і для періодичних видань) стає не таким уже й об’єктивним, наприклад, якщо один учений має 50 статей, які процитовано 50 разів кожна, а в іншого, крім зазначеного результату, є ще 35 статей із 48 цитуваннями кожна, то, швидше за все, прирівняти їх один до одного не зовсім коректно;

-  як і для імпакт-фактора, для h-індексу має значення сфера інтересів, і за її межами порівняння науковців можна проводити лише умовно;

-  під час розрахунку показника враховують самоцитування, що дозволяє авторові цілеспрямовано штучно підвищувати свій h-індекс.

У той час, як система обчислення кількісних показників видань значно еволюціонує, що реалізується у появі нових формул та вдосконаленні старих, щодо оцінки авторитетності авторів h-індекс, незважаючи на перелічені недоліки, залишається чи не єдиним показником, який розраховують у всіх наукометричних базах.

ВИСНОВКИ 

На сьогодні є три основні наукометричні системи (Web of Science, Scopus та РИНЦ), за допомогою яких в Україні можна офіційно визначати впливовість/авторитетність видання для розміщення в ньому результатів власних досліджень (авторам), проаналізувати авторитетність власного наукового видання (видавництвам, редакціям), ефективність наукової роботи установи (адміністраторам) та країни (державним посадовцям). Проте через низький рівень представлення наукових видань і статей авторів України в кожній із зазначених систем (приблизний список розміщено на платформі НБУ ім. В.І. Вернадського), потенційна ефективність їх використання значно знижується. Задля подолання цих проблем усій науковій спільноті необхідно докласти чималих зусиль.

 

Іван КУЧЕРЯВИЙ,

доктор філософських наук,

перший проректор Університету “Україна”

Віктор МАЛИШЕВ,

доктор технічних наук,

директор Інженерно-технологічного інституту

Університету “Україна”

Газета «Університет «Україна» №1-2 (177-178), 2017

автор: Іван КУЧЕРЯВИЙ, доктор філософських наук, перший проректор Університету “Україна” Віктор МАЛИШЕВ, доктор технічних наук, директор Інженерно-технологічного інституту Університету “Україна”

видання: Газета «Університет «Україна» №1-2 (177-178), 2017, час видання: 2017


09/02/2017