Am primit spre publicare un studiu inedit si extrem de important pentru rubrica „Cercetare, Stiinta, Tehnologie”: evaluarea si clasificarea universitatilor din Romania in anul 2004 folosind metode acceptate international. Autorii studiului sunt Asociatia Ad-Astra a Cercetatorilor din Romania si Dr. Daniel David.
”
Metodologia Shanghai “Academic Ranking of World Universities” şi Performanţa Ştiinţifică în Universităţile Româneşti
Autori:
Asociaţia Ad-Astra a Cercetătorilor din România
http://www.ad-astra.ro
Conf. univ. dr. psiholog Daniel David
Universitatea Babeş-Bolyai, Cluj-Napoca
International Institute for the Advanced Studies of Psychotherapy and Applied Mental Health
*Autorii mulţumesc Ministerului Educaţiei şi Cercetării (MEdC) şi Consiliului Naţional al Cercetării Ştiinţifice din Învăţământul Superior (CNCSIS) pentru informaţiile referitoare la numărul personalului didactic din fiecare universitate, informaţii pe care le-au pus la dispoziţia acestui studiu. Menţionăm că acest studiu nu reprezintă poziţia Guvenului României sau a MEdC.
Rezumat:
Studiul face o evaluare a universităţilor din România în scopul clasificării/ierarhizării acestora în anul 2004, prin prisma sistemului international de clasificare/ierarhizare a universităţilor Shanghai “Academic Ranking of World Universities”. Rezultatele arată că vizibilitatea şi impactul internaţional ale universităţilor româneşti sunt date doar de câţiva actori (universităţi) de prestigiu, restul universităţilor având o contribuţie minimă. Chiar aceşti actori de prestigiu nu sunt încă suficient de puternici pentru a reprezenta performant România în aria internaţională a educaţiei şi cercetării, în condiţiile în care nici o universitate din România nu face parte din primele 500 de universităţi ale lumii, conform metodologiei Shanghai.
Cuvinte cheie: clasificarea universităţilor din România, metodologia Shanghai
Abstract:
This study is focused on ranking Romanian universities in 2004, based on Shanghai methodology “Academic Ranking of World Universities”. The results suggest that only a few Romanian universities have international visibility and impact. However, this impact is not yet strong enough to include these universities among the first 500 hundred universities of the world. The implications of these results are discussed.
Key words: ranking Romanian universities, Academic ranking of world universities (Shanghai)
I. Introducere
Conform Declaraţiei de la Lisabona, până în 2010, Uniunea Europeana şi-a propus să devină cea mai avansată economie şi societate bazată pe cunoaştere. Aşadar, cercetarea-dezvoltarea-inovarea vor defini cadrul ariei europene a cercetării care, integrată cu aria europeană a educaţiei într-o arie europeană comună a educaţiei şi cercetării, va fi temelia pe care se va construi noua societate şi economie europeană.
În contextul integrării României în structurile Uniunii Europene, constituirea unei arii româneşti a educaţiei şi cercetării care să contribuie decisiv la o economie şi o societate românească bazată pe cunoaştere este fundamentală. Constituirea ariei româneşti a educaţiei şi cercetării, integrată ariei europene a educaţiei şi cercetării, necesită în primă instanţă o evaluare riguroasă a stării actuale privind cercetarea-dezvoltarea-inovarea românească din universităţi, universitatea fiind unitatea fundamentală care integrează cercetarea avansată şi educaţia. Numai această evaluare ne poate spune:
(1) care sunt actorii de excelenţă în cercetarea universitară românesca (şi în consecinţă, care trebuie sustinuţi);
(2) care sunt actorii “slabi” şi neperformanţi şi în cazul acestora: (a) la care
trebuie renunţat şi/sau (b) care trebuie sustinuţi în scopul dezvoltării şi racordării lor la aria europeană a educaţiei şi cercetarii, în concordanţă cu interesele României şi Uniunii Europene. În urma acestei evaluări se vor putea face politici de dezvoltare a ariei româneşti a educaţiei şi cercetării şi de integrare a acesteia în aria europenă a educaţiei şi cercetării.
Încercările de evaluare a universităţilor din România cu scopul clasificării/ierarhizării acestora au fost multiple (vezi pentru detalii Agachi, 2005).
Astfel, Consiliul Naţional al Cercetării Ştiinţifice din Învăţământul Superior (CNCSIS) a elaborat de-a lungul timpului o serie de metodologii de evaluare a universităţilor prin prisma activităţii de cercetare (vezi pentru detalii CNCSIS http://www.cncsis.ro). Recent, CNCSIS a publicat Cartea Albă a Cercetării Ştiinţifice din Universităţile Româneşti (CNCSIS, 2005) care conţine date importante care pot fi utilizate în clasificarea/ierarhizarea universităţilor româneşti. Deşi demersul CNCSIS-ului este unul important, el nu are impactul scontat din mai multe motive:
(1) cele mai multe informaţii se bazează pe autoevaluarea universităţilor ceea ce poate include distorsiuni intenţionate sau neintenţionate. Spre exemplu, în Cartea Albă a Cercetării Ştiinţifice din Universităţile Româneşti (CNCSIS, 2005) unele universităţi au prezentat informaţii distorsionate despre publicaţiile internaţionale, menţionând ca reviste cotate de către Institute for Scientific Information (ISI) reviste care nu sunt de fapt cotate ISI.
(2) sistemele de evaluare propuse de CNCSIS combină adesea criterii şi indicatori internaţionali cu criterii şi indicatori cu valoare locală, ceea ce face ca sistemul să nu poată fi integrat în circuitul internaţional, atrăgându-şi astfel critici atât din afară cât şi din ţară. Spre exemplu, categoria « număr de lucrări publicate în reviste din fluxul principal de publicaţii » nu este clar operaţionalizată (ex. ceea ce este flux principal pentru un evaluator nu este şi pentru altul), ceea ce poate induce confuzii.
Încercând să corecteze această stare de fapt, Asociaţia Ad-Astra a Cercetătorilor din România a fãcut o statisticã a publicaţiilor universităţilor din România –într-un proiect mai larg care vizează cercetarea în România- pe baza indicatorului publicaţiilor indexate de către Institute for Scientific Information (Ad-Astra, 2005). Acest demers este foarte important deoarece:
(1) indicatorul propus este unul obiectiv, care poate fi verificat independent de actorul evaluat;
(2) indicator este unul recunoscut internaţional care poate intra în orice sistem internaţional de clasificare/ierarhizare a universităţilor, permiţând astfel o comparaţie a universităţilor din România cu cele din străinătate.
Pentru a face o clasificare/ierarhizare a universităţilor pe baza statisticii făcute de Ad-Astra (2005) performanţa obţinută trebuie raportatã la resursele disponibile ale actorului evaluat. Astfel, dacă o universitatea cu 300 de profesionişti publică 300 de articole iar una cu 50 de profesionişti publică 250 de articole, a doua universitate trebuie fi cotată mai bine ca prima, în conformitate cu procedurile internaţionale. Aşadar, pentru a înţelege performanţa ştiinţifică a unei universităţi nu este suficient a se compara datele brute ci trebuie comparate datele standard (indicatorul de eficienţă) obţinute prin raportul dintre producţiile brute ale performanţei ştiinţifice (ex. numărul de publicaţii) şi resursele disponibile.
II: Scopul Studiului
Prin evaluarea universităţilor din România urmărim:
– a face comparabilă performanţă instituţională a universităţilor din România prin standardizarea aspectelor esenţiale ale activităţii acestora în scopul clasificării/ierarhizării universităţilor din România;
– a înregistra informaţii obiective despre performanţa universităţilor din România;
– a oferi informaţii despre universităţile din România actorilor interesaţi.
III. Principii
Evaluarea universităţilor din România este o activitate complexă, cu impact semnificativ asupra constituirii ariei româneşti a educaţiei şi cercetarii. Principiile care au ghidat metodologogia de evaluare propusă în acest studiu sunt descrise în continuare:
1. Evaluarea trebuie să corespundă criteriilor de rigoare internaţionale şi europene;
2. Evaluarea trebuie să fie compatibilă cu sistemele internaţionale în scopul recunoaşterii şi asimilării ei internaţionale;
3. Modelele internaţionale trebuie sa fie adaptate ariei româneşti a educaţiei şi cercetării, fără însă ca această adaptare să afecteze « structura formală » a modelului de evaluare internaţional;
4. Sistemul de evaluare trebuie să fie riguros dar uşor de aplicat; în acelaşi timp, acesta trebuie să fie suficient de abstract, sensibil şi flexibil astfel încât să poată evalua comparativ toate universităţile din aria românescă a educaţiei şi cercetarii, indiferent de profilul acestora;
5. Trebuia evitată situaţia în care sunt amestecate mărimi de « input » (intrare), « output » (rezultate sau ieşiri) şi « proces » în evaluare, aceasta trebuind să fie operaţionalizată riguros, fie ca un construct omogen fie ca un construct compozit bine definit;
6. Sistemul de evaluare propus în acest studiu pentru clasificarea/ierarhizarea universităţilor din România este o adaptare pentru aria românescă a educaţiei şi cercetării a sistemului internaţional Shanghai de clasificare/ierarhizare a universităţilor “Academic Ranking of World Universities” (Shanghai, 2004), unul din cele mai influente sisteme de clasificare/ierarhizare a universităţilor în sistemul european şi internaţional. Sistemul Shanghai este focalizat pe rezultat (output) în secvenţa care defineşte activitatea unei universităţi:
Input (intrare)——Proces——Output (rezultat/ieşire)
Focalizarea evaluării pe output reflectă cel mai bine modul în care universitatea şi-a atins scopurile (output-urile aşteptate). Ceilalţi indicatori, de « input » şi « proces », deşi pot constitui premise pentru output-uri de bună calitate, nu sunt indicatori direcţi sau necesari ai acestor output-uri de calitate. Output-ul pentru o universitate este adesea operaţionalizat în literatura de specialitate (ex. vezi pentru detalii Barnetson şi Cutright, 2002; UNESCO-CEPES, 2004) şi în sistemul internaţional Shanghai de clasificare/ierarhizare a universităţilor (Shanghai, 2004) prin:
(1) Prestigiul profesional al personalului angrenat în activităţile universităţilor (”Quality of Faculty”) – aceasta în condiţiile în care universitatea are ca scop (output aşteptat) şi asigurarea dezvoltării profesionale a membrilor săi. Păstrând criteriile riguroase ale sistemului Shanghai, acest criteriu nu este relevant pentru România în condiţiile în care indicatorii lui sunt: (1) Premiile Nobel; (2) “Fields Medals” şi (3) ”Highly Cited Researchers”. Or aceşti indicatori nu pot diferenţia între universităţile româneşti deoarece sunt nişte indicatori insuficient saturaţi de performanţa universităţilor româneşti.
(2) Prestigiul profesional al absolvenţilor/al celor aflaţi în pregătire (“Quality of Education”) – aceasta în condiţiile în care universitatea are ca scop (output aşteptat) şi formarea profesioniştilor în cercetare şi/sau educaţie. Din nou, păstrând criteriile riguroase ale sistemului Shanghai, acest criteriu nu este relevant pentru România în condiţiile în care indicatorii lui sunt: (1) Premiile Nobel şi (2) “Fields Medals”. Or, aşa cum am menţionat anterior, aceşti indicatori nu pot diferenţia între universităţile româneşti deoarece sunt nişte indicatori insuficient saturaţi de performanţa universităţilor româneşti.
(3) Produse ale activitatii stiintifice (“Research Output”) – acest criteriu reprezintă un output (output-ul aşteptat) fundamental al universităţilor, cu impact pentru dezvoltarea ştiinţifică, economică şi socială. Sistemul Shanghai include aici în primul rând publicaţiile indexate de către Institute for Scientific Information (ISI) (http://www.isinet.com). Aceste publicaţii sunt cele mai citate în fluxul informaţional, ele acoperind peste 85% din total publicaţiilor care contribuie la cunoaştere şi peste 95% din articolele citate în cercetare ştiinţifică internaţională! (Garfield, 1996). Altfel spus, publicaţiile ISI sunt cele care dau vizibilitate, impact şi prestigiu la nivel internaţional actorilor implicaţi în educaţie şi cercetare. Acesta este un criteriu care poate fi utilizat şi în context românesc, fiind suficient de saturat în performanţa universităţilor româneşti, pentru a putea discrima între acestea.
Toate aceste trei criterii menţionate mai sus sunt raportate în sistemul Shanghai la mărimea instituţiei (resurse disponibile), pentru a avea un indicator de eficienţă.
Sumarizând, evaluarea pe care o propunem în cazul universităţilor româneşti are următoarele caracteristici:
(1) este focalizată pe output;
(2) output-ul este reprezentat de performanţa ştiinţifică exprimată prin publicaţii ISI;
(3) este obiectivă, în sensul că rezultatele pot fi verificate independent de cei evaluaţi;
(4) este integrabilă în sistemele internaţionale de clasificare a universităţilor, fiind de fapt un caz particular pentru România a prestigiosului sistem de clasificare Shanghai « Academic Ranking of World Universities ».
IV Metodologia de Evaluare: Clasificarea Universităţilor din România în anul 2004
– Producţiile ISI ale fiecărei universităţi au fost înregistrate şi clasificate de
Asociaţia Ad- Astra a Cercetătorilor din România (http://www.ad-astra.ro) (Ad-Astra, 2005).
Astfel, (pentru detalii vezi Ad-Astra, 2005 la http://www.ad-astra.ro), « au fost selectate toate publicaţiile ştiinţifice cu autori din România, indexate de ISI în anul 2004 în Science Citation Index (2388 articole), Social Sciences Citation Index (40 articole), şi Arts & Humanities Citation Index (38 de articole); în total, s-au înregistrat 2439 de publicaţii (unele articole se găsesc în mai multe index-uri).« Bazele de date studiate acoperă toate domeniile existente în universităţi, de la ştiinţe la artă, filosofie şi religie. Aşadar, ele fac posibilă compararea universităţilor în scopul clasificării/ierarhizării lor, indiferent de profilul acestora. « Dintre publicaţii identificate, 2172 sunt articole, 181 sunt rezumate de prezentări la conferinţe, 37 sunt sinteze ale literaturii de specialitate (reviews), 19 sunt recenzii de carte, 15 sunt editoriale, 8 sunt scrisori, 3 sunt biografii, 2 sunt corecţii şi 1 este un “reprint”. Dintre acestea au fost incluse pentru analiză doar cele 2172 de articole, ele reprezentând produsele ştiinţifice cu impact şi cu şanse mari de citare în literatura internaţională. Dintre acestea, 1194 (55%) sunt realizate în colaborare cu autori din străinătate. Dintre articolele înregistrate de ISI în 2004, 1858 sunt publicate în 2004, 303 în 2003, 3 în 2002, 1 în 2001, 1 în 2000 şi 6 în 2005. O posibilă explicaţie pentru această situaţie este apariţia cu întârziere a unor reviste, diferenţe între data oficială de publicare şi data reală, sau întârzieri în înregistrarea de către ISI a articolelor. Până la data de 7 martie 2005, ISI a înregistrat în 2005 un număr de 274 de articole din România, publicate în 2004, care nu au fost cuprinse deocamdată în acest studiu. Deci, nu toate articolele publicate în 2004 în reviste indexate ISI sunt incluse în acest studiu. Lipsa acestor articole este însă compensată, statistic, de prezenţa unor articole din 2003. Articolele au fost alese pe baza anului de înregistrare de către ISI, nu pe baza anului publicării. Repartizarea articolelor pe universităţi s-a făcut pe baza adreselor înregistrate în baza de date ISI. Corectitudinea adreselor înregistrate de ISI pentru fiecare articol este responsabilitatea autorilor articolelor; « oricum, acesta este un factor de eroare marginal asumat in toate clasificările/ierarhizările internaţionale care utilizează ISI. « Un articol cu autori de la mai multe universităţi este înregistrat ca un articol întreg la fiecare din universităţile de care aparţin autorii săi. O adresă care cuprinde mai multe universităţi a fost alocată arbitrar uneia dintre instituţii. Publicaţiile cu autori români, dar care nu au trecut la adresa lor o instituţie din România (de exemplu, pentru că au lucrat temporar la o instituţie din străinătate) nu sunt cuprinse în acest studiu. Datele au fost folosite cu permisiunea ISI. « Aceste strategii de analiză a datelor ISI respectă procedurile internaţionale implicate în sistemele de evaluare a universităţilor.
– Informaţiile despre potenţialul de cercetare al fiecărei universităţi, exprimat prin
numărul de persoane calificate (profesionişti) a publica şi a face cercetare (resursele disponibile), au fost obţinute din datele Ministerului Educaţiei şi Cercetării (MEdC) şi din cele ale CNCSIS (2005).
Astfel, s-a luat în calcul numărul total al profesorilor, conferenţiarilor, lectorilor/şefilor de lucrări, asistenţilor, preparatorilor şi cercetătorilor (pe baza datelor MedC şi CNCSIS) aşa cum apar ei la 1 ianuarie 2005 în baza de date MEdC. Persoanele angajate în regim temporar nu au fost luate în calcul deoarece ele nu reflectă potenţialul stabil de cercetare al unei universităţi. Analizele efectuate în sistemele de clasificare internaţionale (ex. Shanghai) şi în studii similare pe această temă (ex. David, 2003) arată că distorsiunea introdusă de aceste aproximări sunt minime.
– Clasificarea/Ierarhizarea universităţilor româneşti prin prisma performanţei
ştiinţifice cu vizibilitate şi impact internaţional se bazează pe raportul dintre producţiile ştiinţifice şi potenţialul de cercetare (resurse disponibile).
Clasificarea/Ierarhizarea universităţilor din România în anul 2004, pe baza sistemului internaţional de clasificare Shanghai “Academic Ranking of World Universities”, este prezentată în Tabelul 1. (analiza datelor, fără a lua în calcul cercetătorii din universităţi, nu a dus la modificarea sensibilă a ierarhizării).
Tabelul 1. Clasificarea/Ierarhizarea Universităţilor din România în anul 2004 după Metodologia Shanghai “Academic Ranking of World Universities”.
Nota: Coloanele reprezinta (de la stanga la dreapta): „Poziţia în Clasament2004”, „Instituţia/Universitatea”, „Indicele de Eficientă în Performanţa Ştiinţifică”, „Numărul de Publicaţii ISI în anul 2004 (Sursa: Ad-Astra)”, si respectiv „Numărul de Profesionişti (Sursa: MEdC/CNCSIS)”
1 Universitatea “Alexandru Ioan Cuza” Iaşi 0.18 170 933
2* Universitatea “Babeş-Bolyai” din Cluj-Napoca 0.17 221 1298
2* Universitatea Bucureşti 0.17 285 1631
3 Universitatea Politehnică Bucureşti 0.15 262 1778
4 Universitatea Tehnică “Gheorghe Asachi” din Iaşi 0.097 98 1002
5 Universitatea Tehnică din Cluj-Napoca 0.078 54 684
6 Universitatea ”Politehnica” din Timişoara 0.066 58 869
7 Universitatea de Vest din Timişoara 0.061 42 686
8 Universitatea Valahia din Târgovişte 0.060 21 346
9 Universitatea “Aurel Vlaicu” din Arad 0.053 13 245
10 Universitatea din Craiova 0.049 49 996
11 Universitatea “Constantin Brancuşi” din Târgu-Jiu 0.042 6 140
12 Universitatea Petrol-Gaze din Ploieşti 0.038 14 367
13 UMF “Grigore T. Popa” Iaşi 0.034 31 908
14* Universitatea din Bacău 0.033 8 240
14* Universitatea “Ovidius” din Constanţa 0.033 23 702
15 UMF “Iuliu Hatieganu” Cluj-Napoca 0.027 18 669
16 Universitatea “Dunărea de Jos” din Galaţi 0.026 19 727
17 Universitatea din Piteşti 0.024 11 455
18 UMF “Carol Davila” Bucureşti 0.022 30 1355
19 Universitatea “Transilvania” din Braşov 0.020 19 935
20 Universitatea din Oradea 0.019 27 1370
21 USAMV Cluj-Napoca 0.017 4 237
22 UMF din Craiova 0.0165 6 363
23 UMF din Targu-Mureş 0.016 6 380
24 USAMV “Ion Ionescu de la Brad” Iaşi 0.015 3 193
25 Universitatea “Victor Babeş” Timişoara 0.014 10 710
26 USAMV a Banatului din Timişoara 0.0125 4 320
27 Universitatea Tehnică de Construcţii Bucureşti 0.012 7 573
28 USAMV Bucureşti 0.011 5 422
29 Scoala Naţională deStudii Politice şi Ştiinţe Administrative 0.0096 1 104
30 Universitatea de Nord din Baia Mare 0.0094 2 211
31 Universitatea din Petroşani 0.0093 2 214
32 Universitatea ”Petru Maior ” din Târgu-Mureş 0.0071 1 139
33 Universitatea Naţională de Arte Bucureştii 0.0063 1 157
34 Universitatea ”1 Decembrie 1918” din Alba-Iulia 0.0056 1 178
35 Academia de Studii Economice din Bucureşti 0.0053 5 926
36 Universitatea ”Lucian Blaga ” din Sibiu 0.0042 3 702
Note la Tabelul 1:
– Universităţile din România care nu se regăsesc în această clasificare nu au avut în anul 2004 publicaţii indexate ISI (şi înregistrate ca atare în sistemul ISI) care să le asigure vizibilitate şi impact în cercetarea ştiinţifică internaţională. Două universităţi particulare, Universitatea de Vest ”Vasile Goldiş” din Arad şi Universitatea ”Hyperion” din Bucureşti, au fiecare o contribuţie de câte trei (3) articole ISI publicate în anul 2004. Indicele de eficienţă în cazul lor nu s-a putut calcula precis (acesta este motivul pentru care nu sunt incluse în clasament) neavând în baza de date MEdC informaţiile oficiale privind resursa umană eligibilă (resursa diponibilă) pentru activitatea de cercetare. Pe baza datelor de autoevaluare raportate în Carta Albă a Cercetării Ştiinţifice Româneşti (CNCSIS, 2005), Universitatea de Vest ”Vasile Goldiş” are un indice de eficienţă de 0.0065 (458 de profesionişti) iar Universitatea ”Hyperion” din Bucureşti are un indice de eficienţă de 0.0094 (316 profesionişti).
– Indicele de eficienţă în performanţa ştiinţifică se calculează împărţind numărul de publicaţii la numărul de profesionişti.
După cum se observă în Tabelul 1, universităţile româneşti au o contribuţie importantă la ştiinţa internaţională. Această contribuţie însă se datorează doar câtorva universităţi de prestigiu şi de tradiţie, restul având contribuţii marginale sau care lipsesc cu desăvârşire! Chiar în cazul universităţilor de prestigiu indicele de eficienţă este foarte scăzut, mai mic ca 1, aceasta arătând că vizibilitatea se datorează câtorva profesionişti remarcabili din fiecare universitate, în timp ce marea masă a universitarilor români nu a trecut încă proba validării internaţionale! (nici o universitate românească nu se află în primele 500 ale lumii, conform metodologiei Shanghai). Aceasta în timp ce universităţile din Europa şi SUA, aflate în primele locuri conform Clasificării/Ierahizării Shanghai (Shanghai, 2004), au un indice de eficienţă care sugerează că majoritatea sau că toţi universitarii contribuie la vizibilitatea, prestigiul şi impactul internaţional al universităţii. Cele mai prestigioase universităţi din România sunt cele cu profil complex, urmate îndeaproape de câteva universităţi cu profil tehnic. Universităţile cu profil socio-uman/economic, profil medicină şi farmacie, profil agricol şi medicină veterinară, profil arte/arhitectură/sport, profil militar, precum şi universităţile particulare, nu sunt încă actori suficient de puternici sub aspectul cercetării (sau a producţiilor artistice de valoare) încât să reprezinte România la nivelul arenei internaţionale a performanţei ştiinţifice/artistice; aceasta se datorează probabil nu atât calităţii slabe a producţiilor ştiinţifice/artistice cât probabil lipsei ”cutumei” de a publica în reviste de prestigiu şi impact la nivel internaţional. Politicile educaţionale şi de cercetare ar trebui să pună un accent deosebit pe stimularea profesioniştilor români să publice în reviste ISI sau indexate în baze de date internaţionale specifice diverselor domenii, pentru a da vizibilitate şi impact internaţional cercetării româneşti. Pe baza indicatorului de eficienţă, primele cinci (5) universităţi ale României în anul 2004 prin prisma vizibilităţii, prestigiului şi impactului în performanţa ştiinţifică internaţională (diferenţele dintre ele sunt minime) sunt prezentate în Tabelul 2.
Tabelul 2. Primele Cinci (5) Universităţi din România în anul 2004 prin prisma vizibilităţii, prestigiului şi impactului în performanţa ştiinţifică internaţională, evaluate cu metodologia Shanghai ”Academic Ranking of World Universities”.
1 Universitatea “Alexandru Ioan Cuza” Iaşi
2 Universitatea “Babeş-Bolyai” din Cluj-Napoca
2 Universitatea Bucureşti
3 Universitatea Politehnică Bucureşti
4 Universitatea Tehnică “Gheorghe Asachi” din Iaşi
V. Concluzii şi Discuţii
Clasificarea/Ierarhizarea universităţilor din România în anul 2004, prezentată în acest articol, are câteva caracteristici care îi permit să fie integrată în sistemele internaţionale de clasificare/ierarhizare a universităţilor de prestigiu:
(1) este o particularizare a unui sistem internaţional de clasificare/ierarhizare a universităţilor –sistemul Shanghai-“Academic Ranking of World Universities”, astfel că poate intra în circuitul internaţional;
(2) Indicatorii utilizaţi în clasificare sunt obiectivi, în sensul că nu se bazează pe autoevaluarea pe care şi-o realizează agentul evaluat (care poate introduce intenţionat sau neintenţionat o distorsiune) şi pot fi verificaţi în bazele de date internaţionale accesibile publicului larg;
(3) Principalul indicator este reprezentat de publicaţii indexate ISI, ceea ce înseamnă că aceasta clasificare/ierarhizare surprinde performanţa ştiinţifică vizibilă şi de impact la nivel internaţional şi nu criterii locale în care “fiecare a câştigat şi toţi trebuie să ia premii”, după celebrul vedict al “păsării Dodo” din “Alice în Ţara Minunilor”.
Criticile care se pot aduce acestui studiu sunt de mai multe tipuri.
În primul rând sunt criticile cu caracter general care se pot aduce oricărui sistem de clasificare! Astfel, orice sistem de clasificare induce o distorsiune a realităţii prin faptul că selectează anumiţi indicatori în detrimentul altora. Spre exemplu, dacă prin prisma performanţei ştiinţifice Universitatea Harvard este pe primul loc în sistemul Shanghai de clasificare/iearhizare a universităţilor, ea poate să piardă primul loc dacă se consideră promovabilitatea studenţilor de la un an la altul (sau alte criterii). Ceea ce este important într-un sistem de clasificare serios este selecţia unor indicatori de valoare şi obiectivi care să fie asumaţi explicit şi pe baza cărora să se facă apoi ierarhizarea. În cazul nostru, ca şi în cazul sistemului de clasificare Shanghai “Academic Ranking of World Universities”, indicatorul principal este performanţa ştiinţifică cu impact şi vizibilitate internaţională, operaţionalizat prin publicaţii indexate ISI. În plus, orice sistem de clasificare angajează erorile inerente măsurătorilor pe care le face. Astfel, în toate sistemele de clasificare internaţionale erorile bazelor de date ISI se transpun şi în ierarhizarea făcută. Aceste erori sunt însă minime şi stabile astfel că impactul lor este controlabil şi redus, neafectând serios validitatea ierarhizărilor făcute; spre exemplu, Universitatea Harvard apare în toate clasificarile internaţionale pe primele locuri ceea ce este o dovadă a validităţii sistemelor de clasificare/ierarhizare a universităţilor.
În al doilea rând, există o serie de critici specifice sistemului de clasificare/ierarhizare utilizat în acest studiu. Astfel, în cazul nostru se poate critica focalizarea pe output şi ignorarea input-ului şi a procesului. Aceasta critică ţine mai mult de un discurs complicat de genul celui al “păsării Dodo” decât de pragmatism. Din punct de vedere pragmatic intrări bune nu înseamă neaparat şi rezultate bune, după cum un proces bun (ex. de organizare) nu duce neapărat la performanţă! (vezi şi Agachi, 2005). Mai mult, o focalizare pe toţi cei trei indicatori este de dorit doar atunci când dorim să facem o diagnoză organizaţională comprehensivă ca să înţelegem dinamica instituţiei în producerea unor rezultate pe baza unor intrări şi a prelucrării acestor intrări. Scopul nostru nu a fost acesta! Scopul nostru a fost să identificăm cei mai buni actori (care sunt?) fără a le face o diagnoză organizaţională (de sunt aşa?). În plus, sistemele noastre de referinţă internaţionale –clasificarea/ierarhizarea Shanghai- au folosit acelaşi principiu. De asemenea ni s-ar putea reproşa ca am selectat un singur indicator de output ceea ce nu reflectă diversitatea produselor universităţilor. Aici trebuie menţionat că noi ne-am propus să includem toţi indicatorii de output utilizaţi în clasificarea Shanghai. Din păcate aceşti indicatori nu sunt discriminativi pentru condiţiile din România, nefiind saturaţi în performanţa produsă de universităţile noastre. Singurul indicator internaţional viabil a rămas publicaţiile ISI. Evident ca acest indicator ar fi putut fi dublat de indicatori locali (ex. publicatii în reviste CNCSIS etc.). Nu am vrut însă să facem rabat de la vizibilitatea şi impactul internaţional, criteriul ISI putând fi contaminat de aceşti indicatori locali. Mai mult, acest indicator de ieşire reflectă indirect şi nivelul de intrare şi de proces, el condiţionând adesea intrări de calitate şi procese eficiente. Evident că în studii viitoare pot fi luate în calcul şi alte criterii şi indicatori în clasificarea/ierarhizarea universităţilor. Aceasta se face însă în funcţie de scopul pentru care se face clasificarea/ierarhizarea. Metodologia Shanghai, adaptată universităţilor româneşti, a servit cel mai bine scopurilor pe care le-a avut acest studiu, scopuri care au fost menţionate în prima partea a lucrării.
Ţinând cont ca aria românească a educaţie şi cercetării implică mai multi actori (ex. universităţi, institute de cercetare, institutele Academiei Române, unităţile de cercetare din mediul economic etc.), ar fi interesant de extins acest studiu şi la ceilalţi actori. Această analiză ar putea ghida politicile de structurare a ariei româneşti a educaţiei şi cercetării şi de integrare a acesteia în aria europeană a educaţiei şi cercetarii. Mai mult, chiar în cadrul universităţilor ar fi interesant de făcut o evaluare pe domenii, o universitate putând excela în anumite domenii şi să fie mai puţin reprezentativă în alte domenii. Spre exemplu, în domeniul psihologiei, analizele scientometrice (David, 2003) au arătat că Universitatea Babeş-Bolyai este pe primul loc, înaintea Universităţii Alexandru Ioan Cuza din Iaşi şi a Universităţii Bucureşti, deşi, evaluată global, Universitatea Babeş-Bolyai este situată pe locul doi alături de Universitatea Bucureşti, după Universitatea Alexandru Ioan Cuza din Iaşi (vezi Tabelul 1). Astfel de informaţii ar fi utile nu doar celor care fac politicii educaţionale şi de cercetare ci şi studenţilor, părinţilor acestora şi societăţii civile în general.
În concluzile, ierarhizarea universităţilor din România în anul 2004, făcută în acest studiu, arată cei mai importanţi actori care au vizibilitate şi impact internaţional prin performanţa ştiinţifică. Sperăm ca aceste date să fie utile elevilor, studenţilor, părinţilor, societăţii civile în general precum şi celor care implementează politica educaţională şi de cercetare în România. Tinând cont de această analiză ar fi de dorit ca (a) în cadrul domeniului universitar fondurile de cercetare să fie dirijate pe actorii/universităţile care au vizibilitate şi impact internaţional, în scopul întării acestora pentru a intra în topul celor 500 de universităţi ale lumii (dupa Academic Ranking of World Universites-Medotologia Shaghai) şi (b) în cadrul universităţilor, fondurile de cercetare să ajungă direct la profesioniştii şi domeniile de excelenţă.
VI. Bibliografie
Ad-Astra (2005). An overview of Romanian science. http://www.ad-astra.ro.
Agachi, P. S. (2005). Performanţe şi clasificări instituţionale. Metodologie de aplicare. UNESCO-CEPES, Bucuresti 22 martie.
Barnetson, B. şi Cutright, M. (2002). Performance indicators as conceptual technologies, Higher Education, 40, 277-292.
CNCSIS (2005). Cartea albă a cercetării ştiinţifice din universităţile româneşti. Editura ASE: Bucureşti.
CNCSIS. Indicatori pentru măsurarea nivelului performanţelor în cercetarea ştiinţifică universitară http://www.cncsis.ro.
David, D., Moore, M., şi Domuta, A. (2003). Romanian psychology on the international psychological scene: A preliminary critical and empirical appraisal. European Psychologist, 2, 153-160.
Garfield, E. (1996). The significant scientific literature appears in a small core of journals. The Scientist V10(17), Sept. 2.
Shanghai (2004). Academic ranking of world universities http://ed.sjtu.edu.cn/ranking.htm.
UNESCO-CEPES (2004). Ranking and league tables of universities and higher education institutions – Methodologies and approaches. Collection of texts – for the 1st meeting of the working group of the project on “Higher Education Ranking Systems and Methodologies: How They Work, What They Do”, Washington, DC: USA.
”
NR. Varianta de mai sus a articolului a trebuit adaptata publicarii in mod text. In mod evident tabelele nu apar la fel de profesionist cum ar aparea in PDF
Mentionam ca studiul in PDF poate fi consultat online la adresa:
https://myfiles.yale.edu/dmc52/Clasificare2004.pdf
In acelasi timp niste reactii preliminare la acest public au aparut in Ev. Zilei de astazi la http://www.expres.ro/social/?news_id=187064
Sebi Buhai
Ha ha ha! Zice un mahar de la ASE Bucuresti:
valorificarea cercetarii nu-i totuna cu valoarea cercetarii. Noi pana acuma nu ne-am pus problema de-a publica ISI, bla, bla.
Fiti seriosi, domnilor, nu inghite mai nimeni gargara asta. Toata lumea stie care-s revistele bune (doar pe alea le citati prin materialele voastre, nu?). Doar ca „nu v-ati pus problema” de-a publica pe-acolo. Adica numa’ pentru ca n-ati vrut n-ati facut, nu?
Uite, astia-s chiar sefii care conduc trebshoara-n tara noastra. Academicieni miliardari far’ de opera (vezi maharul din Oradea), fonfii si gushatzii dintotdeauna.
Sunt un om care a trecut si a vazut tot ce inseamna activitate stiintifica si universitara in Romania si va pot garanta ca nici una din universitatile de la noi nu poate fi in acest moment competitiva cu universitati din tarile care au importanta in lume. Dar ce mi se pare nedrept e faptul ca ati situat Universitatile din Alma Mater Napocensis in spatele altor universitati pentru ca numai acolo am observat un mediu propice stiintei in Romania si oameni care muncesc pentru stiinta.
De-aceea va sugerez sa diversificati criteriile de clasificare pt ca situarea de exemplu a UAIC din Iasi in fata UBB din Cluj Napoca nu mi se pare deloc corecta. Vreau sa precizez ca singura universitate din tara noastra de care au auzit oameni de valoare din alte tari e UBB-ul pentru ca a trecut prin mai multe evaluari academice externe. In aceeasi situatie se afle si UMF „Iuliu Hatieganu”.
Desi nu e in totalitate concludenta si nu nu infatiseaza cu acuratete situatia reala, initiativa si clasificarea propusa de dumneavoastra e bine venita intr-o tara care mai are mult pana sa reuseasca sa intre in marea competitie a stiintei universale.
Bine ca avem si noi o evaluare serioasa (fara a fi perfecta) a universitatilor din Romania dupa modelul celor din SUA si UE. Felicit autorii si astept reactiile romanilor (nu ma astept sa fie bune tinand cont ca dinozaurii si medioritatile sunt inca tari si multi).
Mihai
Aceste articole consistente ne sunt de folos tuturor dar nu se vede unde este criteriul impactului cercetarii asupra civilizatiei romanesti.Undeva exista o strangulare a procesului normal de valorificare practica.Daca este inafara tarii sa stim, daca este in tara sa o eliminam.Pentru noi cei nedependenti de institutiile internationale valoarea activitatii se apreciaza altfel adica in imediatul scurtei vieti pe care o traim.Oamenii vor mai rabda cat vor mai rabda ipocrizia dar si asteptarea are limite.
Prin intermediul lui Daniel David am primit si primele ecouri ale MedC si ale rectorilor marilor universitati romanesti la studiul publicat mai sus. O compilatie a acestor reactii e mai jos:
REACTIILE MINISTERULUI EDUCATIEI SI CERCETARII SI ALE RECTORILOR MARILOR UNIVERSITATI ROMANESTI LA STUDIUL:
Clasificarea/Ierarhizarea Universităţilor din România-2004; Metodologia Shanghai “Academic Ranking of World Universities” şi Performanţa Ştiinţifică în Universităţile Româneşti
Autori:
Ÿ Asociatia Ad-Astra a Cercetatorilor din Romania (http://www.ad-astra.ro)
Ÿ Conf. univ. dr. psiholog Daniel David, Universitatea Babes-Bolyai, Cluj-Napoca, Romania (http://www.ubbcluj.ro; http://www.psychotherapy.ro)
1. Reprezentantii Ministerului Educatiei si Cercetarii – In “Evenimentul Zilei”
“…Reprezentantii Ministerului Educatiei si Cercetarii (MEC) si cei ai Consiliului National al Cercetarii Stiintifice in Invatamintul Superior (CNCSIS) spun ca “orice evaluare este bine venita”. “Noi am contribuit indirect la acest studiu, prin furnizarea datelor. Cunosc metodologia Shanghai, consacrata international. Nu ma pot pronunta asupra credibilitatii studiului deoarece acest lucru ar presupune ca eu sa il analizez detaliat si sa ma pronunt asupra unor idei din studiu. Dar orice mesaj bine elaborat care vine catre noi va fi luat in consideratie, mai ales ca si noi, la minister, incercam sa masuram performanta universitatilor dupa diferite metode”, ne-a declarat Dumitru Miron, secretarul de stat pentru invatamintul superior si integrare europeana din MEC…”
2. Recorul Academiei de Stiinte Economice, Bucuresti – In “Evenimentul Zilei”
“…Secretarul biroului executiv al CNCSIS, Ioan Gheorghe Rosca, care este si rectorul ASE Bucuresti, spune ca aceasta clasificare este buna “daca este judecata strict dupa criteriul pe baza caruia a fost realizata, si anume valorificarea cercetarii pe plan international”. “Trebuie sa precizam ca valorificarea internationala a cercetarii nu este acelasi lucru cu valoarea cercetarii. Sint de acord ca valorificarea cercetarii stiintifice este cel mai important indicator, pentru ca este normal sa ne raportam la ceea ce se publica pe plan mondial, astfel incit sa nu ne citim numai noi intre noi”, a afirmat prof. dr. Rosca. “Eu cred ca publicarea acestui clasament va fi un soc pentru noi toti si este un lucru bun, pentru ca trebuie sa ne obisnuim cu astfel de ierarhizari. Universitatile trebuie fie interesate de a intra in topurile internationale. Noi, de exemplu, la ASE, pur si simplu nu ne-am pus problema pina acum sa publicam in reviste ale ISI, dar va fi obligatoriu sa ne punem aceasta problema dupa integrarea Romaniei in UE. Eu personal nu resping acest clasament deoarece este o preocupare a mea si ma intereseaza”, a adaugat rectorul ASE…”
3. Rectorul Universitatii de Arta si Design, Cluj-Napoca – In “Ziarul Clujeanului” e altceva. Noi am luptat foarte mult pentru echivalarea expoziţiilor sau lucrărilor cu articolele publicate. De altfel, după ce aceste echivalări au fost acceptate, UAD a şi primit o în cercetare din partea Ministerului Educaţiei”, afirmă rectorul UAD…”
“…Nu ne-au fost cerute date pentru această ierarhizare”, susţine rectorul Universităţii de Artă şi Design din Cluj (UAD), Ioan Sbârciu. El afirmă că în domeniul artei, UAD se află pe primul loc în ţară în clasificările CNSIS legate de cercetare. „La
4. Pro-rectorul Universitatii Babes-Bolyai, Cluj-Napoca – In “Ziarul Clujeanului”
“…Este foarte importantă această clasificare, pentru că surprinde o situaţie în domeniul cercetării la un anumit moment, mai exact în anul 2004. Dacă acest clasament ar fi fost făcut pe ultimii cinci ani, UBB ar fi fost detaşat pe primul loc, după cum reiese din ierarhiile întocmite de CNSIS. Oricum şi poziţia a doua în 2004 este foarte onorantă pentru noi. Acest lucru dovedeşte că în instituţia noastră există o preocupare importantă pentru cercetare, în condiţiile în care se ştie că fără cercetare dezvoltarea unei societăţi nu este posibilă”, a declarat Şerban Agachi, prorector la UBB. Agachi a mai spus că UBB se va preocupa în continuare de accentuarea şi amplificarea publicării studiilor în revistele acreditate ISI…”
5. Rectorul Universitatii Tehnice, Cluj-Napoca – In “Ziarul Clujeanului”
“…Radu Munteanu, rectorul Universităţii Tehnice din Cluj, nu a dorit să comenteze ierahizarea întocmită de Ad-Astra şi Daniel David până nu găseşte timp să o studieze în amănunţime. El a spus însă că este preocupat încă din 1995 de astfel de clasificări pe care le consideră foarte utile. „Mă preocupă această problemă. În opinia mea nu trebuie să le dai ceva oamenilor după merite şi nevoi, ci după modul în care îşi pun în valoare calităţile”, a spus Radu Munteanu…”
6. Rectorul UMF Gr. T. Popa, Iasi – In “Ziarul de Est”
”…Universitatea “Al.I. Cuza” a fost nominalizata de Organizatia “Ad-Astra” a Cercetatorilor din Romania ca fiind institutia de invatamint superior cu cel mai mare indice de eficienta in performanta stiintifica. “Acesta clasificare este confirmarea a ceea ce noi spunem de atita timp, ca finantarea pe student se face pe numarul persoanelor si nu pe calitatea invatamintului. Cei care realizeaza performante nu sint incurajati de sistemul educational roman. Aceasta clasificare arata valoarea reala a universitatilor din Romania”, ne-a precizat Dumitru Oprea, rectorul Universitatii “Al. I. Cuza”.
Indicele de eficienta in performanta stiintifica este raportul numarului de publicatii din 2004 (170 in cazul Universitatii “Cuza”) si numarul de profesionisti (933). Locurile doi si trei au fost ocupate de Universitatea “Babes-Bolyai”, din Cluj-Napoca si Universitatea Bucuresti. Din cele 79 de universitati, 56 de stat si 23 particulare acreditate, institutiile de invatamint superior iesene s-au clasat pe locul 4 – Universitatea Tehnica “Gh. Asachi”, pe locul 13 – Universitatea de Medicina si Farmacie “Gr. T. Popa” si pe pozitia 24 – Universitatea de Stiinte Agricole si Medicina Veterinara “Ion Ionescu de la Brad”.
Aceasta este prima clasificare realizata vreodata in invatamintul superior romanesc. “Ierarhizarea s-a facut dupa criterii mondiale si universitatile nu puteau influenta cu nimic rezultatele”, a mai precizat rectorul Oprea…”
7. Rectorul UMF Iuliu Hatieganu, Cluj-Napoca – In “Ziarul Clujeanului”
“…Nu poţi compara mere cu pere. „Niciodată nu se pot compara mere cu pere. Nu se poate compara o universitate tehnică cu una socio-umană sau cu una de medicină. Sunt mai multe criterii specifice care trebuie luate în considerare în fiecare caz în parte. De exemplu, în acest clasament nu apar reliefate premierele naţionale realizate de medicina clujeană, cum ar fi folosirea tehnologiei laparoscopice sau cele legate de transplantul renal. În plus, în lumea medicală, accesul la publicaţii de specialitate este mai greu, pentru că sunt mai puţine. Cu toate acestea însă, consider că această ierarhizare este binevenită. E bine să ne dăm seama la ce oră ne aflăm”, a declarat Mircea Bojiţă, rectorul UMF Cluj, care a mai spus că le va cere colegilor săi ca pe viitor să încerce să publice mai mult în revistele acreditate ISI…”
Reactiile Autorilor la Comentariile Rectorilor – In “Ziarul Clujeanului”
“…Merele şi perele nu doar că pot fi comparate, dar pot fi comparate chiar prin prisma unui număr infinit de criterii, spre exemplu, prin aportul caloric pe care îl aduc! La fel, indicatorul nostru, publicaţiile internaţionale ISI, acoperă toate domeniile de la ştiinţă, medicină, până la arte, religie, literatură şi filosofie, făcând aşadar posibilă comparaţia tuturor universităţilor, după un model acreditat internaţional. Asta nu înseamnă că nu se pot lua în calcul şi alte criterii; important este ca acestea să fie riguroase, acceptate internaţional şi congruente cu scopul evaluării, pentru a evita ierarhizări locale în care fiecare câştigă şi toţi sunt pe locuri fruntaşe”, a declarat Daniel David…”
Ok, sa-mi expun si eu punctul de vedere. Mai intai ca ce au facut ei nu e nici un „studiu” ci un joc de „copy-paste” pentru cei ce au acces la ISI. Primul astfel de joc l-a facut „Terente” acum vreo doi ani pe forumul FAR cu topicul „Opera baronilor universtiari”.
Opiniile mele, multe si diverse :), sunt pe forumul MEdC la
http://forum.portal.edu.ro/index.php?showtopic=26689
Uite doua din ele:
Studiu semnat de Ad Astra si domnul Daniel David intitulat „Clasificare Universitati 2004.doc”.
La ce este „bun” acest studiu inainte de a fi aruncat ca cosh?
– pozitioneaza pe primele 4 locuri universitatile despre care oricum „se stia” ca, intr-o ordine
arbitrara, ocupa aceste pozitii. Se stia mai putin in clasamentele CNCSIS! De exemplu, pe anul 2003 UB era plasata pe locul 8 iar pe primul loc in ierarhizarea CNCSIS, atit in 2003 cit si in 2002 este o „agronomie” care aici ocupa locul 26.
– ii face sa jubileze fericiti pe liderii redutabilei universitati din Tirgoviste (plasata pe un fruntas loc
8 din peste 100 de universitati acreditate) si ai universitatii din Tirgu-Jiu (in primul rind pe prorectorul acesteia eminentul profesor Nicolae Mischie) plasata pe locul 11 cu mult inainte unor
universtitati de traditie. De exemplu, ASE-Bucuresti este pe penultimul loc din 36 de universitati
„clasate”.
– autorii reusesc sa compromita total sistemul ISI in publicul din Romania: sistem al unei firme private
californiene (SRL sau SA, nu stiu exact), care face comert reusit si scoate bani frumosi (3500$ anual
abonamentul la accesul on-line la ISI) cu ce are omul de stiinta mai accentuat: orgoliu.
Chestiune americana: fac bani din orice.
Autorii aveau OBLIGATIA, inainte de a arunca pe piata acest „clasament” extrem de sensibil (repet vorbim de orgoliul universitarilor), sa spuna un lucru elementar: ca acest clasament este unul PUR CANTITATIV si nu unul CALITATIV (care nici nu prea ai cum sa-l masori). Se ia nr. brut de articole publicate in reviste indexate ISI (nu conteaza ca sunt reviste indexate ISI de foarte proasta calitate si ca alte reviste bune NU se indexeaza caci nu doresc editorii respectivi) si se imparte la nr. de cadre didactice dintr-o universitate. Adica se face o „chinezarie” vinduta in presa de azi din Romania ca „metodologia Shanhai – academic ranking of word universities”.
Nu se vorbeste in clasament de „factor de impact” al revistelor, de citari ale unui articol, lucruri care
pot atenua dominanata cantitativa in astfel de clasamente in favoarea celei calitative etc.
In viziunea unor astfel de clasamente un artico publicat intr-o revista selecta este egal cu unul
publicat intr-o revista de proasta calitate, dar cotata ISI.
In incheiere imi exprim o temere: romanii vor reusi in urmatorii ani sa se „adapteze” si la „sistemul
ISI”: o sumedenie de reviste romanesti, de proasta calitate se vor cota ISI, contra unei taxe anuale care trebuie platita firmei californiene pentru a fi cotat ISI.
Deja primele semne au aparut: citeva „Anale” de universitati romanesti sunt cotate ISI.
Recomand autorilor si sper ca domnul ministru si CNCSIS sa studieze si eventual sa aplice si in Romania modul de ierarhizare al universitatilor din UK: se face odata la 5 ani si are in vedere extrem de multi factori calitativi nu doar acesti indicatori pur cantitativi. Nu e nevoie de inventii romanesti ci de
luat un sistem care in UK functioneaza. Nu „chinezarii” brute.
cu stima
Gigel Militaru,
PS: In ce ma priveste as da toate articolele mele din reviste cotate ISI pe unul singur in cea mai selecta revista de matematica (si asta este „Annals of Mathematics” de la Princeton, indiferent de ce spune ISI).
si a doua: Stimate domnule David, Am sa trec peste cele doua „PS”-uri ale dumnevoastra
si am sa atac fondul problemei. Din pacate v-a suparat mesajul precedent al domnului Cotarta. Omeneste este de inteles caci domnia sa se leaga de contributiile ISI ale psihologilor romani:
conform http://www.ad-astra.ro/isi/topics.php , adica un alt studiu AA, acestia au publicat in 2004 doar 8 articole (daca il numaram si pe cel al Alinei Mungiu care nu stiu daca este psiholoaga dar e cotat la
psihologie) fata de ASE-Bucuresti care are publicate doar 5 articole ISI dintre care 2 in „revista de
chimie” si 3 in reviste de matematica. Si noi ne miram de ce a mers economia prost!
Cu alte cuvinte daca ar fi existat in Romania o ipotetica „universitate de psihologie” atunci aceasta
ar fi fost probabil clasata inaintea ASE – depinde si de nr. de persoane din cele doua institutii: una reala
(ASE) si alta virtuala. Va rog frumos sa reveniti la decizia dumnevoastra de a nu mai participa la discutii caci ieri ati acceptat critici la „studiu” si in acest moment sunteti un „oficial” MEdC: altminteri incep sa cred ca si oamenii noului MEdC, chiar cei tineri, au mentalitatea lui „lasa mha sa urle, ca stim noi mai bine ce e de facut”! Ca si toti ceilalati de pana acum.
Mai mult sper ca este necesar sa faceti acest lucru pentru ca mai jos am sa spun de ce acel „clasament” al dumnevoastra este FUNDAMENTAL GRESIT si autorii trebuie sa-l retraga imediat si sa-si CEARA SCUZE publicului pentru intoxicare si manipulare (involuntara).
Inainte de spune de ce clasamentul dumnevoastra este fundamental gresit am sa spun ceva despre clasamentele CNCSIS (laudat fie numele consiliului) pe anii 2002 si 2003. Dumnevoastra ati scris ieri si eu, daca nu e o gluma a dumnevoastra, m-am crucit cind am citit: „Cu sistemul Britanic este alta poveste. Poarte fi bun. Va amintesc ca CNCSIS a utilizat acest sistem ca inspiratie in evaluarile facute de-a lungul anilor!” M-am crucit caci clasamentul CNCSIS (profit de ocazie de a cere DEMITEREA acestui organism, fie numele dinsului luadat! ) nu are nici o legatura cu sistemul britanic, decit daca domniile lor spun asta sa-si justifice salariile bugetare. Odata ca in UK acel clasament este facut o data la 5 ani (asa cum vad ca scrie si prin proiectul de lege al calitatii al MEdC) de o institutie specializata in asa ceva. Nu anual cum le-a „facut” CNCSIS. A doua la mina este ca in clasamentele din UK (am fost in UK la precedenta evaluare – cea din 2000) se bazeaza pe un set de formulare, foarte ample cu zeci de puncte, de citeva zeci de pagini care sunt tratate serios de cei ce le completeaza: FIECARE membru al FIECARUI departament in parte. Inainte de a face acele clasamente CNCIS (laudat fie numele consiliului) a trimis fiecarui membru din fiecare departament din Romania acele formulare (care „masoara” activitatea pe 5 ani si nu pe un an)? Sa fim seriosi: in facultatea una activez(si a altora cu care am discutat) nu am vazut asa ceva. La dumnevoastra?
Revin acum la studiu dumnevoatra si va cer sa-l retrageti cu scuze adresate publicului (clasamentul a
fost publicat integral in editia printata a EZ si deci poate manipula grav tinerii absolventi).
O scrie asta un sustinator cu PRUDENTA (nu mecanic, asa cum sunt multi romani, in special prin exil care vor sa se implice in invatamintul romanesc, care dupa ce constata ca au citeva articole ISI si le numara si constata ce destepti sunt!) al sistemului ISI. Omeneste va inteleg ca incercati sa-l aparati asa cum taranul dimineata in piatza isi lustruieste rosiile (de regula cu o cirpa murdara) si apoi si le lauda singur.
Noi nu suntem vinzatori de rosii ci oameni de stiinta: adica trebuie sa fim rigurosi si PRECISI. Altminteri
ne compromitem si nu mai crede lumea in noi. Ori daca in studiu dumnevoastra insiva formulati indoili asupra clasamentului atunci va intreb: de ce l-ati mai facut public? (in EZ, firesc pentru presa, nu sunt punctate deloc acele indoili ale dumnevoastra si ei il publica, ca presa, „la scandal”).
Studiul dumnevoatra este fundamental gresit din trei motive precise:
1) Metodologia folosita de chinezii de la http://ed.sjtu.edu.cn/ranking.htm (pagina web extrem
de rudimentara ca si clasamentul lor).
2) Modul de calcul al autorilor romani.
3) Anomaliile universitare romanesti.
Sa le dezvolt pe fiecare in parte:
1) „Metodologia” este „cirpa murdara a taranului” a clasamentului! Am spus ieri de ce e gresita: chinezii
de acolo iau nr. brut de articole ISI (fara sa tina cont ca si in revistele ISI se publica extrem de mult
„borhot stiintific” – si eu am facut asta: articole pe care nu le citeaza nimeni sunt „borhot” dupa mine!) si imparte acest numar la numarul de cadre didactice din universitatea respectiva. Contrar a ceea ce spuneti, de aceste „clasamente chinezesti” nu tine nimeni seama in vest: imi puteti spune ce institutie din UE sau din SUA tine seama de el si in ce mod? (un link precis sa vedem si ce spune respectiva institutie ca e bun acel clasament chinezesc si la ce il folosesc!).
Americanii au si ei aceste clasamente (stiti bine asta), pe care si le fac singuri si nu cred ca uita la
cum le fac, din plictiseala probabil, niste chinezi extrem de simpatici. Banuiesc ca si clasamentele
americane (nu le-am vazut) formularele sunt la fel de complexe ca in cele din UK pe care le citisem cu 5 ani in urma.
Si daca acceptam aceast calcul mecanic bazat pe „metodologia chinezeasaza” de ce nu mergem mai
departe? La salarii! De ce un profesor nu e platit in functie de cite articole ISI are? In acest caz, daca
facem un calcul mecanic dupa metodologia ISI, sus-semnatul ar trebui sa aiba un salariu de 10 ori
mai mare decit l-a avut anul trecut domnul profesor Mircea Miclea. Din pacate constat ca domnia sa l-am avut de 4 ori mai mare decit subsemnatul in conditiile in care ambii suntem profi universitari la
universitati bugetare: si asta ma doare la buzunare sau ma face sa imi recunosc public mediocritatea: sunt de 4 ori mai putin valoros decit domnia sa.
REZUMAT: metodologia de calcul al chinezilor e fundamental gresita caci nu ia in considerare „borhotul” stiintific.
2) Modul de calcul al autorilor romani: sa inteleg ca dumnevoastra considerati ca metodologia chinezeaca e corecta. Atunci o aplicati GRESIT!
Ar fi trebuit sa impartiti nr. de articole ISI nu la nr. de cadre didactice titulare dintr-o universitate
ci la NUMARUL DE POZITII din, ceea ce inca comunist se cheama, „statele de functiuni”. Stiu bine ce vorbesc ca in univ din Romania se mai intimpla o anomalie care in vest nu exista: multe pozitii academice libere, care sunt tinute in regim de plata cu ora sau cumul (de regula de catre cei ce
conduc o catedra sau apropiati ai lor) fara sa fie scoase la concurs pentru mai multe salarii de una si
aceiasi persoana. Din acest motiv, e posibil ca univ mici din provincie (de exemplu: Tirgoviste sau Tirgu Jiu) sa fie avantajate in clasament ca nu are destule cadre didactice TITULARE (la care ati impartit dumnevoastra) si orele sunt tinute de cele putine care sunt sau de „navetistii unviersitari” prieteni ai celor ce conduc universitatea respectiva.
Apoi la http://www.ad-astra.ro/isi/institutii.php?type_id=1 apare productivitatea stiintifica ISI pe institutii. Lidere acolo sunt de departe UB si UPB, urmate la ceva distanta de UBB si Cuza.
Prin artificiul de calcul al autorilor ati scos Cuza si UBB pe primele doua locuri. Stiti de ce? Caci
ambele universitati au, din cite am citit prin presa, pensionat fortat anul trecut toate cadrele didactice
trecute de 65 de ani lucru pe care nici UB si nici UPB nu l-a facut (asa nu e un lucru rau sau bun: e o
discutie aparte intre a alege intre un pensionabil valoros sau in tinar care poate fi „mediocru
pragmatic”). Acest lucru a facut sa fie un nr. mai mic de cadre didactice titulare (probabil mai multe norme vacante de tinut de titularii ramasi) la Cuza si UBB si deci sa le salte in clasament exact cit sa depaseasca UB si UPB! (sa va supar putin!). REZUMAT: nu ati impartit la numarul corect!
3) Anomaliile universitare romanesti. Clasamentul distorsionat pe care dumnevoastra il asumati si care genereaza confuzie in publicul neavizat este dictat de „revista de chimie”, o revista romanesca cotata ISI si in care constat ca publica enorm de multi romani! (apropo de mesajul de ieri al domnului Ivan).
Ce loc ocupa aceasta revista (dupa factorul de impact)in clasamentul revistelor de chimie?
Ei bine, daca va uitati si cititi efectiv articolele ISI (http://www.ad-astra.ro/isi/institutii.php?type_id=1 )
la universitatea din Tirgu Jiu, plasata de dumnevoastra pe un onorabil loc 11 din peste 100 de
universitati romanesti acreditate, veti consta ca: Univ. din Tirgu Jiu are 6 articole publicate ISI din
care 5 in „Revista de chimie” (dintre ele 4 de acelasi autor Capatina).
Cu asta „zestre” Tigu Jiu e pe locul 11. Cu acest loc puteti manipula un tinar absolvent de liceu din Tirgu Jiu care vrea sa studieze, sa zic economie (nu vreau sa iau apararea ASE chiar daca cind eram student aveau cele mai frumoase studente: au un secretar de stat, un consilier MEdC, care sunt de la ASE). Tanarul poate gindi asa: „de ce sa merg la ASE care e pe locul 35 cind post studia stiinte economice aici la Tirgu Jiu, care e pe locul 11 in Romania si nici nu ma costa prea mult studiile?”. Poate ca acest clasament va conta cind termin facultatea?
Fara ca el sa aiba hanarn de faptul ca acea clasare este data de cele 5 articole din „revista romaneasca) de chimie”! La fel si la univ din Tirgoviste plasate de dumnevoastra pe locul 8: aceasta universitate are publicate ISI 21 de articole, majoritatea in Romania in „revista de chimie”. In reviste din strainatate, daca am socotit corect, au publicat doar 3 articole!!
Ma opresc sa mai evidentiez si alte anomalii romanesti (ca matematician ma simt dator sa va reamintesc ca statistica e credibila daca se face pe „numere mari”) si va invit sa cititi articolul lui Costica Bradatean („institutii si persoane”) in care acesta scria, cu mult curaj din SUA, ca in revistele
romanesti de stiinta se publica mai degraba pe criteriul „dai si tu o bere?” decit pe criterii impersonale. Dar asta e o alta discutie si din acest motiv eu am renunatat sa mai public in reviste romanesti din 1994.
Toate cele bune
Gigel Militaru