Document de travail conceptuel - Proposition de changements à la série de programmes ouverts des IRSC et d'améliorations au processus d'évaluation par les pairs - Liste des sources citées, Annexe, Notes

Liste des sources citées

  • [1] Demicheli, V. et C. Di Pietrantonj. « Peer review for improving the quality of grant applications », The Cochrane Library, no 2, 2008, p. 1-15.
  • [2] Anonyme. Making an Impact: A preferred framework and indicators to measure return on investment in health research, 2009 (consulté le 18 janvier 2012).
  • [3] Nason, E. Health and Medical Research in Canada: Observatory on health research systems (en anglais seulement), 2008 (consulté le 18 janvier 2012).
  • [4] Zerhouni, E. et coll. Rapport du Comité d'examen international, 2005-2010, 2011, (consulté le 1er novembre 2011).
  • [5] Ioannidis, J.P.A. « Fund people not projects » (commentaire), Nature, vol. 477, 2011, p. 529-531.
  • [6] Azoulay, P., J.S. Graff Zivin et G. Manso. Incentives and Creativity: Evidence from the Academic Life Sciences (en anglais seulement) (document de travail du NBER no 15466), 2009 (consulté le 1er novembre 2011).
  • [7] Anonyme. NIH Research Grant Program R01 (en anglais seulement), 2011 (consulté le 4 novembre 2011).
  • [8] Anonyme. Grand Challenges in Global Health: Overview (en anglais seulement), 2011 (consulté le 1er novembre 2011).
  • [9] Graves, N., A.G. Barnett et P. Clarke. « Funding grant proposals for scientific research: Retrospective analysis of scores by members of grant review panel », BMJ, vol. 343, 2011, p. 1-8.
  • [10] Anonyme. National Institutes of Health 2007-2008 Peer Review Self Study: Final Draft, 2008 (consulté le 4 novembre 2011).
  • [11] Obrecht, M., K. Tibelius et G. D'Aloisio. « Examining the value added by committee discussion in the review of applications for research awards », Research Evaluation, vol. 16, no 2, 2007, p. 79-91.
  • [12] Vener, K.J., E.J. Feuer et L. Gorelic. « A statistical model validating triage for the peer review process: keeping the competitive applications in the review pipeline », FASEB Journal, vol. 7, no 14, 1993, p. 1312-1319.
  • [13] Cole, S., J.R. Cole et G.A. Simon. « Chance and Consensus in Peer Review », Science New Series, vol. 214, no 4523, 1981, p. 881-886.
  • [14] Mayo, N. E. et coll. « Peering at peer review revealed high degree of chance associated with funding of grant applications », Journal of Clinical Epidemiology, vol. 59, 2006, p. 842-848.
  • [15] Cicchetti, D.V. « The reliability of peer review for manuscript and grant submissions: A cross-disciplinary investigation », Behavioural and Brain Sciences, vol. 14, 1991, p. 119-186.
  • [16] Bell, J.I. et coll. Rapport du comité international 2000-2005, 2006 (consulté le 1er novembre 2011).
  • [17] Anonyme. European Peer Review Guide: Integrating Policies and Practices into Coherent Procedures (en anglais seulement), 2011 (consulté le 3 novembre 2011).
  • [18] Marsh, H.W., U.W. Jayasinghe et N.W. Bond. « Improving the peer-review process for grant applications: Reliability, validity, bias and generalizability », American Psychologist, vol. 63, no 3, 2008, p. 160-168.

Annexe

En plus des références citées dans le texte, les IRSC ont tenu compte de nombreux documents et opinions pour guider la conception de leur nouvelle série de programmes ouverts. Leur examen de divers articles scientifiques, opinions d'experts, pratiques existantes et rapports techniques fut détaillé, mais non exhaustif. La liste qui suit présente des publications qui ont été pris en considération lors de la conception.

Documents pris en considération lors de la conception

Anonyme. Report of the Committee on Rating of Grant Applications, 1996 (consulté le 4 novembre 2011).

Anonyme. National Institutes of Health 2007-2008 Peer Review Self Study: Final Draft, 2008 (consulté le 4 novembre 2011).

Anonyme. Promouvoir l'excellence en recherche : examen mené par un groupe d'experts international à l'égard des pratiques d'évaluation par les pairs au Conseil de recherches en sciences humaines du Canada, 2008 (consulté le 8 novembre 2011).

Anonyme. AED Survey Report, 2009 (consulté le 4 novembre 2011).

Anonyme. Making an Impact: A preferred framework and indicators to measure return on investment in health research, 2009 (consulté le 18 janvier 2012).

Anonyme. Results of EPSRC Peer Review Survey (en anglais seulement), 2009 (consulté le 14 novembre 2011).

Anonyme. Peer Review: A Guide for Researchers (en anglais seulement), 2010 (consulté le 4 novembre 2011).

Anonyme. A summary of peer review for project grant applications to NHMRC, 2011 (en anglais seulement), 2011 (consulté le 8 novembre 2011).

Anonyme. Empowering the Nation through Discovery and Innovation: NSF Strategic Plan for Fiscal Years 2011-2016 (en anglais seulement), 2011 (consulté le 4 novembre 2011).

Anonyme. European Science Foundation Survey Analysis Report on Peer Review Practices (en anglais seulement), 2011 (consulté le 3 novembre 2011).

Anonyme. European Peer Review Guide: Integrating Policies and Practices into Coherent Procedures (en anglais seulement), 2011 (consulté le 3 novembre 2011).

Anonyme. Grand Challenges in Global Health: Overview (en anglais seulement), 2011 (consulté le 1er novembre 2011).

Anonyme. NIH Research Grant Program R01 (en anglais seulement), 2011 (consulté le 4 novembre 2011).

Anonyme. Principles for Review of Research Proposals in Canada, Ottawa (Ontario), 2011, Conseil de recherches en sciences naturelles et en génie du Canada.

Anonyme. The Merit Review Process: Ensuring Limited Federal Resources are Invested in the Best Science (en anglais seulement) (mandat d'audience), 2011 (consulté le 8 novembre 2011).

Anonyme. « Tough love: A British research council's ‘blacklisting' rule is a radical, unpopular but courageous effort to address a crisis in the peer-review system » (en anglais seulement) (éditorial), Nature, vol. 464, no 7288, 2010, p. 465 (consulté le 1er octobre 2011).

Andrade, H.B., E. de los Reyes López et T.B. Martín. « Dimensions of scientific collaboration and its contribution to the academic research groups' scientific quality », Research Evaluation, vol. 18, no 4, 2009, p. 301-311.

Azoulay, P., J.S. Graff Zivin et G. Manso. Incentives and Creativity: Evidence from the Academic Life Sciences (en anglais seulement) (document de travail du NBER no 15466), 2009 (consulté le 4 novembre 2011).

Bacchetti, P. et coll. « Simple, defensible sample sizes based on cost efficiency », Biometrics, vol. 64, 2008, p. 577-594.

Baxt, W.G. et coll. « Who reviews the reviewers? Feasibility of using a fictitious manuscript to evaluate peer reviewers performance », Annals of Emergency Medicine, vol. 32, 1998, p. 310-317.

Bell, J.I. et coll. Rapport du comité international 2000-2005. 2006 (consulté le 1er novembre 2011).

Benda, W.G.G. et T.C.E. Engels. « The predictive validity of peer review: A selective review of the judgmental forecasting qualities of peers, and the implications for innovation in science », International Journal of Forecasting, vol. 27, 2011, p. 166-182.

Berg, T.D. et C.E. Erwin. « Blind no more », Journal of Adolescent Health, vol. 45, 2009, p. 7.

Berlin, J.A. « Does blinding of readers affect the results of meta-analyses? », Lancet, vol. 350, 1997, p. 185-186.

Bonetta, L. « Growing pains for NIH grant review », Cell, vol. 125, 2006, p. 823-825.

Bornmann, L. et H.-D. Daniel. « Criteria used by a peer review committee for selection of research fellows. A Boolean probit analysis », International Journal of Selection and Assessment, vol. 13, 2005, p. 296-303.

Bornmann, L. et H.-D. Daniel. « Selection of research fellowship recipients by committee peer review, reliability, fairness and predictive validity of Board of Trustees' decisions », Scientometrics, vol. 63, 2005, p. 297-320.

Bornmann, L. et H.-D. Daniel. « Convergent validation of peer review decisions using the h index. Extent of and reasons for type I and type II errors », Journal of Informetrics, vol. 1, 2007, p. 204-213.

Bornmann, L., G. Wallon, et A. Ledin. « Does the committee peer review select the best applicants for funding? An investigation of the selection process for two European molecular biology organization programmes », PLoS ONE, vol. 3, 2008, p. e3480.

Bornmann, L., R. Mutz et H.-D. Daniel. « Latent Markov modeling applied to grant peer review », Journal of Informetrics, vol. 2, 2008, p. 217-228.

Bornmann, L. et H.-D. Daniel. « The effectiveness of the peer review process: Inter-referee agreement and predictive validity of manuscript refereeing at Angewandte Chemie », Angewandte Chemie International Edition, vol. 47, 2008, p. 7173-7178.

Bornmann, L. et H.-D. Daniel. « Extent of type I and type II errors in editorial decisions: A case study on Angewandte Chemie International Edition », Journal of Informetrics, vol. 3, 2009, p. 348-352.

Bornmann, L., L. Leysdesdroff et P. Van Den Besselarr. « A meta-evaluation of scientific research proposals: Different ways of comparing rejected to awarded applications », Journal of Informetrics, vol. 4, 2010, p. 211-220.

Braben, D. W. « Why Peer Review Thwarts Innovation » (commentaire), New Scientist, no 2644, 23 février 2008.

Brown, T. Peer Review and the Acceptance of New Scientific Ideas: Discussion paper from a Working Party on equipping the public with an understanding of peer review (en anglais seulement), 2004 (consulté le 4 novembre 2011).

Cañibano, C. et B. Bozeman. « Curriculum vitae method in science policy and research evaluation: The state-of-the-art », Research Evaluation, vol. 18, 2009, p. 86-94.

Cañibano, C., J. Otamendi et I. Andújar. « An assessment of selection processes among candidates for public research grants: The case of the Ramón y Cajal Programme in Spain », Research Evaluation, vol. 18, 2009, p. 153-161.

Cicchetti, D.V. « The reliability of peer review for manuscript and grant submissions: A cross-disciplinary investigation », Behavioural and Brain Sciences, vol. 14, 1991, p. 119-186.

Cook, W.D., B. Golany, M. Kress et M. Penn. « Optimal allocation of proposals to reviewers to facilitate effective ranking », Management Science, vol. 51, 2005, p. 655-661.

Cole, S., J.R. Cole et G.A. Simon. « Chance and Consensus in Peer Review », Science New Series, vol. 214, no 4523, 1981, p. 881-886.

Costello, L.C. « Is NIH funding the « best science by the best scientists »? A critique of the NIH R01 research grant review policies » (perspective), Academic Medicine, vol. 85, 2010, p. 775-779.

Davidoff, F. « Masking, blinding, and peer review: The blind leading the blinded », Annals of Internal Medicine, vol. 128, 1998, p. 66-68.

Demicheli, V. et C. Di Pietrantonj. « Peer review for improving the quality of grant applications », The Cochrane Library, no 2, 2008, p. 1-15.

Dinov, I.D. « Grant review: American Idol or Big Brother? » (correspondance), Cell, vol. 127, 2006, p. 662.

Donovan, C. et L. Butler. « Testing novel quantitative indicators of research ‘quality', esteem and ‘user engagement': An economics pilot study », Research Evaluation, vol. 16, 2007, p. 231-242.

Dowdy, S.F. « The anonymous American Idol manuscript reviewer » (correspondance), Cell, vol. 127, 2006, p. 662.

Dumais, S.T. et J. Nielsen. Automating the assignment of submitted manuscripts to reviewers (en anglais seulement), 1992 (consulté le 14 novembre 2011).

Errami, M. et coll. « eTBLAST: A web server to identify expert reviewers, appropriate journals and similar publications », Nucleic Acids Research, vol. 35, 2007, p. W12-W15.

Fang, F.C. et A. Casadevall. « NIH peer review reform – change we need or lipstick on a pig? » (éditorial), Infection and Immunity, vol. 77, 2009, p. 929-932.

Geard, N. et J. Noble. « Modelling academic research funding as a resource allocation problem », 3rd World Congress on Social Stimulation, du 6 au 9 septembre 2010, Université de Kassel, Allemagne.

Gordon, R. et B. J. Poulin. « Cost of the NSERC science grant peer review system exceeds the cost of giving every qualified researcher a baseline grant », Accountability in Research, vol. 16, 2009, p. 13-40.

Grant, J. et L. Allen. « Evaluating high risk research: An assessment of the Wellcome Trust's Sir Henry Wellcome Commemorative Awards for Innovative Research », Research Evaluation, vol. 8, 1999, p. 201-204.

Graves, N., A.G. Barnett et P. Clarke. « Funding grant proposals for scientific research: Retrospective analysis of scores by members of grant review panel », BMJ, vol. 343, 2011, p. 1-8.

Graves, N., A.G. Barnett et P. Clarke. « Cutting random funding decisions » (correspondance), Nature, vol. 469, 2011, p. 299.

Harari, O. « Attracting the best minds », Management Review, vol. 87, 1998, p. 23-26.

Haslam, N. et S. Laham. « Early-career scientific achievement and patterns of authorship: The mixed blessings of publication leadership and collaboration », Research Evaluation, vol. 18, 2009, p. 405-410.

Hettich, S. et M.J. Pazzani. Mining for proposal reviewers: Lessons learned at the National Science Foundation, 2006 (consulté le 14 novembre 2011).

Hodgson, C. « How reliable is peer review? An examination of operating grant proposals simultaneously submitted to two similar peer review systems », Journal of Clinical Epidemiolgy, vol. 50, 1997, p. 1189-1195.

Holbrook, A. « Evaluation of research sponsored by federal granting councils in Canada: the social contract », Research Evaluation, vol. 9, 2000, p. 47-56.

Ioannidis, J.P.A. « Fund people not projects » (commentaire), Nature, vol. 477, 2011, p. 529-531.

Ismail, S., A. Farrands et S. Wooding. Evaluating Grant peer Review in the Health Sciences: A review of the literature (en anglais seulement), 2009 (consulté le 4 novembre 2011).

Jadad, A.R. et coll. « Assessing the quality of reports of randomized clinical trials: Is blinding necessary? », Controlled Clinical Trials, vol. 17, 1996, p. 1-12.

Jayasinghe, U.W., H.W. Marsh et N. Bond. « A multilevel cross-classified modelling approach to peer review of grant proposals: The effect of assessor and researcher attributes on assessor ratings », Journal of the Royal Statistical Society, vol. 166, 2003, p. 279-300.

Jayasinghe, U.W., H.W. Marsh et N. Bond. « A new reader trial approach to peer review in funding research grants: An Australian experiment », Scientometrics, vol. 69, 2006, p. 591-606.

Johnson, S.C. et S.L. Hauser. « Peer review at National Institutes of Health: Small steps forward », Annals of Neurology, vol. 65, no 4, 2008, p. A15-A17.

Johnson, V. E. « Statistical analysis of the National Institutes of Health peer review system », PNAS, vol. 105, 2008, p. 11076-11080.

Justice, A.C. et coll. « Does masking author identity improve peer review quality? A randomized controlled trial », JAMA, vol. 280, 1998, p. 240-242>.

Kaplan, D. « Statistical analysis in NIH peer review--identifying innovation » (argumentation), Faseb J, vol. 21, 2007, p. 305-308.

Kaplan, D., N. Lacetera et C. Kaplan. « Sample size and precision in NIH peer review », PLoS ONE, vol. 3, 2008, p. e2761.

Langfeldt, L. « The decision-making constraints and processes of grant peer review, and their effects on the review outcome », Social Studies of Science, vol. 31, 2001, p. 820-841.

Langfeldt, L. « The policy challenges of peer review: managing bias, conflict of interests and interdisciplinary assessments », Research Evaluation, vol. 15, 2006, p. 31-41.

Lao, N. et W.W. Cohen. « Relational retrieval using a combination of path-constrained random walks », Machine Learning, vol. 81, 2010, p. 53-67.

Ledford, H. « Stats reveal bias in NIH grant review », Nature News, 2008, doi:10.1038/news.2008.988.

Libby, E. et L. Glass. « The calculus of committee composition », PLoS ONE, vol. 5, 2010, p. e12642.

Mandviwalla, M. et coll. « Improving the peer review process with information technology », Decision Support Systems, vol. 46, 2008, p. 29-40.

Marsh, H.W., U.W. Jayasinghe et N.W. Bond. « Improving the peer-review process for grant applications: Reliability, validity, bias and generalizability », American Psychologist, vol. 63, 2008, p. 160-168.

Mayo, N. E. et coll. « Peering at peer review revealed high degree of chance associated with funding of grant applications », Journal of Clinical Epidemiology, vol. 59, 2006, p. 842-848.

McNutt, R.A. et coll. « The effects of blinding on the quality of peer review », JAMA, vol. 263, 1990, p. 1371-1376.

Moher, D. et coll. « Does quality of reports of randomised trials affect estimates of intervention efficacy reported in meta-analyses? », Lancet, vol. 352, 1998, p. 609-613.

Morissette, K. et coll. « Blinded versus unblinded assessments of risk of bias in studies included in a systematic review (revue) », Cochrane Database of Systematic Reviews, no 9, 2011, numéro d'article : MR000025.

Munger, K. « American Idol and NIH grant review – redux » (correspondance), Cell, vol. 127, 2006, p. 661-662.

Nason, E. Health and Medical Research in Canada: Observatory on health research systems (en anglais seulement), 2008 (consulté le 18 janvier 2012).

Obrecht, M., K. Tibelius et G. D'Aloisio. « Examining the value added by committee discussion in the review of applications for research awards », Research Evaluation, vol. 16, 2007, p. 79-91.

Pagano, M. « American Idol and NIH Grant Review » (correspondance), Cell, vol. 126, 2006, p. 637-638.

Pagano, M. « More money and less time! » (réponse), Cell, vol. 127, 2006, p. 664-665.

Porter, A.L., D.J. Roessner et A.E. Herberger. « How interdisciplinary is a body of research? », Research Evaluation, vol. 17, 2008, p. 273-282.

Rafols, I., A.L. Porter et L. Leydesdorff. Science overlay maps: A new tool for research policy and library management, 2009 (consulté le 14 novembre 2011).

Reale, E., A. Barbara, et A. Costantini. « Peer review for the evaluation of academic research: lessons from the Italian experience », Research Evaluation, vol. 16, 2007, p. 216-228.

Reckling, F.J. et C. Fischer. Factors influencing approval probability in Austrian Science Fund (FWF) decision-making procedures – FWF stand-alone projects programme, 1999 to 2008 (en anglais seulement), 2010 (consulté le 4 novembre 2011).

Rodriguez-Navarro, A. « A simple index for the high-citation tail of citation distribution to quantify research performance in countries and institutions », PLoS ONE, vol. 6, 2011, p. e20510.

Roebber, P.J. et D.M. Schultz. « Peer review, program officers and science funding », PLoS ONE, vol. 6, 2011, p. e18680.

Rothwell, P.M. et C.N. Martyn. « Reproducibility of peer review in clinical neuroscience. Is agreement between reviewers any greater than would be expected by chance alone? », Brain, vol. 123, 2000, p. 1964-1969.

Rubin, H.R et coll. « How reliable is peer review of scientific extracts? Looking back at the 1991 annual meeting of the Society of General Internal Medicine » (commentaire), Journal of Internal Medicine, vol. 8, 1993, p. 255-258.

Schroter, S. et coll. « Effects of training on quality of peer review: Randomised controlled trial », BMJ, vol. 328, 2004, p. 673.

Schroter, S., T. Groves et L. Højgaard. « Surveys of current status in biomedical science grant review: Funding organisations' and grant reviewers' perspectives », BMC Medicine, vol. 8, 2010, p. 62.

Schuemie, M.J. et J.A. Kors. « Jane: Suggesting journals, finding experts », Bioinformatics, vol. 24, 2008, p. 727-728.

Spiegel, A.M. « New guidelines for NIH peer review: Improving the system or undermining it? » (commentaire), Academic Medicine, vol. 85, 2010, p. 746-748.

Spier, R.E. « Peer review and innovation », Science Eng. Ethics, vol. 8, 2002, p. 99-108.

Tavana, M., F. Lopinto et J. W. Smither. « Examination of the similarity between a new Sigmoid function-based consensus ranking method and four commonly-used algorithms », Int. J. Operational Research, vol. 3, 2008, p. 384-398.

Thorngate, W. Mining the archives: Analyses of CIHR research grant adjudications, 2002 (consulté le 4 novembre 2011).

van den Besselaar, P. et L. Leydesdorff. « Past performance, peer review and project selection: A case study in the social and behavioural sciences », Research Evaluation, vol. 18, 2009, p. 273-288.

Van Noorden, R. et G. Brumfield. Nature News: Fixing a grant system in crisis (en anglais seulement) (rapport spécial), 2010 (consulté le 8 novembre 2011).

van Rooyen, S. et coll. « Effect of open peer review on quality of reviews and on reviewers' recommendations: a randomised trial », BMJ, vol. 318, 1999, p. 23-27.

Vener, K.J., E.J. Feuer et L. Gorelic. « A statistical model validating triage for the peer review process: keeping the competitive applications in the review pipeline », Faseb J, vol. 7, 1993, p. 1312-1319.

Wagner, R.M. et G.B. Jordan. « Moving towards impact when evaluating research programs: Introduction to a special section », Research Evaluation, vol. 18, no 5, 2009, p. 339-342.

Ware, M. Peer Review: benefits, perceptions and alternatives, 2008 (consulté le 4 novembre 2011).

Zaïane, O.R., J. Chem et R. Goebel. « Mining research communities in bibliographical data », Lecture Notes in Computer Sciences, vol. 5439, 2009, p. 59-76.

Zerhouni, E. et coll. Rapport du Comité d'examen international, 2005-2010, 2011, (consulté le 1er novembre 2011).

Zululeta, M.A. et M. Bordons. « A global approach to the study of teams in multidisciplinary research areas through bibliometric indicators », Research Evaluation, vol. 8, 1999, p. 111-118.

Zumeta, W. et J.S. Raveling. « Attracting the best and the brightest », Issues in Science and Technology, vol. 19, 2003, p. 36-40.

Notes

  1. Les IRSC définissent un utilisateur de connaissances comme une personne susceptible d'utiliser les connaissances issues de la recherche pour prendre des décisions éclairées au sujet de politiques, de programmes et/ou de pratiques en matière de santé. La participation d'un utilisateur de connaissances au processus de recherche peut varier selon la nature de la recherche et les besoins de l'utilisateur en matière d'information. Un utilisateur de connaissances peut être un praticien, un responsable des politiques, un éducateur, un décideur, un administrateur de soins de santé, un dirigeant communautaire, une personne associée à un organisme de bienfaisance dans le domaine de la santé, à un groupe de patients, à un organisme non gouvernemental ou aux médias, etc.
  2. L'application des connaissances intégrée est expliquée sur le site Web des IRSC.
  3. Dans ce contexte, les IRSC définissent un nouveau chercheur ou un chercheur en début de carrière comme un candidat n'ayant jamais présenté de demande aux IRSC ou qui a terminé son dernier programme d'études cinq ans ou moins avant la date originale du concours.
  4. Les IRSC définissent un utilisateur de connaissances comme une personne susceptible d'utiliser les connaissances issues de la recherche pour prendre des décisions éclairées au sujet de politiques, de programmes et/ou de pratiques en matière de santé. La participation d'un utilisateur de connaissances au processus de recherche peut varier selon la nature de la recherche et les besoins de l'utilisateur en matière d'information. Un utilisateur de connaissances peut être un praticien, un responsable des politiques, un éducateur, un décideur, un administrateur de soins de santé, un dirigeant communautaire, une personne associée à un organisme de bienfaisance dans le domaine de la santé, à un groupe de patients, à un organisme non gouvernemental ou aux médias, etc.
  5. L'application des connaissances intégrée est expliquée sur le site Web des IRSC.
  6. Par l'entremise de leur série actuelle de programmes ouverts, les IRSC accordent un petit nombre de très grandes subventions. Les IRSC tentent toujours de déterminer le meilleur mécanisme qui permettrait de financer les grandes subventions qui ne correspondent pas aux paramètres actuels de modélisation des programmes de recherche fondamentale et programmatique et de planification de projets.
  7. Dans ce contexte, les IRSC définissent un nouveau chercheur ou un chercheur en début de carrière comme un candidat n'ayant jamais présenté de demande aux IRSC ou qui a terminé son dernier programme d'études cinq ans ou moins avant la date originale du concours.
  8. Les IRSC définissent un utilisateur de connaissances comme une personne susceptible d'utiliser les connaissances issues de la recherche pour prendre des décisions éclairées au sujet de politiques, de programmes et/ou de pratiques en matière de santé. La participation d'un utilisateur de connaissances au processus de recherche peut varier selon la nature de la recherche et les besoins de l'utilisateur en matière d'information. Un utilisateur de connaissances peut être un praticien, un responsable des politiques, un éducateur, un décideur, un administrateur de soins de santé, un dirigeant communautaire, une personne associée à un organisme de bienfaisance dans le domaine de la santé, à un groupe de patients, à un organisme non gouvernemental ou aux médias, etc.
  9. Dans ce contexte, les IRSC définissent un partenaire comme une organisation désignée par le candidat lui-même et qui contribue à des projets de recherche particuliers en apportant une aide en espèces ou en nature, conformément aux conditions négociées par le candidat.
  10. Les IRSC définissent un utilisateur de connaissances comme une personne susceptible d'utiliser les connaissances issues de la recherche pour prendre des décisions éclairées au sujet de politiques, de programmes et/ou de pratiques en matière de santé. La participation d'un utilisateur de connaissances au processus de recherche peut varier selon la nature de la recherche et les besoins de l'utilisateur en matière d'information. Un utilisateur de connaissances peut être un praticien, un responsable des politiques, un éducateur, un décideur, un administrateur de soins de santé, un dirigeant communautaire, une personne associée à un organisme de bienfaisance dans le domaine de la santé, à un groupe de patients, à un organisme non gouvernemental ou aux médias, etc.
  11. Dans ce contexte, les IRSC définissent un partenaire comme une organisation désignée par le candidat lui-même et qui contribue à des projets de recherche particuliers en apportant une aide en espèces ou en nature, conformément aux conditions négociées par le candidat.
Date de modification :