بررسی و آسیب‌شناسی آزمون‌های بسندگی زبان انگلیسی وابسته به وزارت عتف و دانشگاه‌های ایران و نیازسنجی زبانی ذی‌نفعان

نوع مقاله : علمی پژوهشی(عادی)

نویسندگان

1 استاد آموزش زبان انگلیسی و روان‌شناسی تربیتی، دانشگاه فردوسی مشهد، مشهد، ایران

2 استادیار آموزش زبان فارسی، دانشگاه فردوسی مشهد، مشهد، ایران

3 استادیار آموزش زبان انگلیسی، دانشگاه فردوسی مشهد، مشهد، ایران

4 دکتری آموزش زبان انگلیسی، دانشگاه فردوسی مشهد، مشهد، ایران

5 استادیار آموزش زبان انگلیسی، مؤسسه آموزش عالی بهار، مشهد، ایران

چکیده

پژوهش پیش‌رو در تلاش است که با نیازسنجی مخاطبان (دانش‌آموختگان و دانشجویان مقطع دکتری) به‌بررسی و آسیب‌شناسی آزمون‌های بسندگی زبان انگلیسی وابسته به‌وزارت عتف و دانشگاه‌های ایران بپردازد و پس از آن آزمونی استاندارد و یکسان را به‌عنوان آزمونی واحد پیشنهاد دهد. بدین‌منظور پس از موضوع‌بندی پاسخ‌های کیفی که از طریق مصاحبۀ نیمه‌ساختاریافته با 30 نفر اعضای هیأت علمی ( 19 زن و 11مرد) و 35 نفر دانش‌آموختگان و دانشجویان مقطع دکتری (13 زن و 22 مرد) از شهرها و رشته‌های گوناگون در دانشگاه‌های سراسر ایران گرفته شد، پرسشنامه‌ای محقق‌ساخته تدوین شد و به‌جهت اعتباریابی پرسشنامۀ طراحی‌شده، ابتدا از 200 نفر دانش‌آموخته یا دانشجوی مقطع دکتری (117 مرد و 83 زن) دانشگاه‌های سراسر ایران از رشته‌های گوناگون خواسته‌شد به‌پرسشنامه پاسخ‌دهند و پس از آن نیز 442 نفر (223 مرد و 219 زن) شامل دانش‌آموختۀ دکتری (57 نفر)، دانشجوی دکتری (320 نفر) و عضو هیأت علمی (65 نفر) به‌پرسشنامۀ اعتباریابی‌شده پاسخ دادند. بنابراین جامعۀ آماری در مجموع 642 نفر بوده است که نظر خود را در بارة آسیب‌شناسی آزمون‌های بسندگی زبان انگلیسی به‌لحاظ 4 معیار روایی، پایایی، تأثیر و عدالت آزمون بیان کرده‌اند. یافته‌های پژوهش نشان می‌دهد که شرکت‌کنندگان رضایت چندانی از آزمون‌های مذکور ندارند و باور دارند که این آزمون‌ها براساس بریده‌هایی از آزمون‌های بین‌المللی تافل و آیلتس قدیمی تهیه می‌شوند و ملاحظات فرهنگی و بومی در آن‌ها رعایت چندانی نمی‌شوند. بنابراین، در پایان، برای ارتقای کیفی آزمون‌های بسندگی زبان انگلیسی در ایران پیشنهادهایی ارائه شده است.

کلیدواژه‌ها


عنوان مقاله [English]

Evaluating and Examining the Problems of Iran’s Ministry of Higher Education and Universities’ English Language Proficiency Tests and Stakeholders' Language Needs Analysis

نویسندگان [English]

  • Reza Pishghadam 1
  • Shima Ebrahimi 2
  • Shaghayegh Shayesteh Sadafian 3
  • Sahar Tabatabaee Farani 4
  • Haniyeh Jajarmi 5
1 Department of English Language and Literature, Faculty of Literature and Humanities, Ferdowsi University of Mashhad
3 Assistant professor of English Language, Ferdowsi University of Mashhad
4 Department of English Language, Ferdowsi University of Mahhshd
5 Bahar Institute of Higher Education, Mashhad, Iran
چکیده [English]

This study aims to explore English language proficiency tests of Iran’s Ministry of Higher Education and universities by analyzing the needs of the participants (PhD candidates and graduates) and then propose a standard and uniform test. To this end, after thematizing the qualitative answers obtained through semi-structured interviews with 30 faculty members (19 females and 11 males) and 35 PhD candidates and graduates (13 females and 22 males) from different cities and majors in universities throughout Iran, a researcher-made questionnaire was developed. To validate the designed questionnaire, first 200 PhD graduates and candidates (117 males and 83 females), studying various majors in universities across Iran, answered the questionnaire (convenience sampling). Then 442 participants (223 males and 219 females) including PhD graduates (N= 57), PhD candidates (N= 320), and faculty members (N= 65) answered the validated questionnaire. Totally, 642 participants expressed their views on the problems of English language proficiency tests in terms of four criteria: validity, reliability, impact, and fairness of the test. The findings show that the participants are not satisfied with these tests and believe that these tests are designed based on the old versions of TOEFL and IELTS international tests and cultural and local considerations are overlooked. Finally, some suggestions are made to improve the quality of English language proficiency tests in Iran.

کلیدواژه‌ها [English]

  • "examining the problems
  • language proficiency tests"
  • "language needs analysis"
  • "local-cultural components"
  • "Ministry of Higher Education"
پیش‌قدم، رضا و ابراهیمی، شیما (1397). نسبیت حسی و تأثیر آن بر مهارت نوشتاری زبان‌آموزان غیرفارسی‎زبان. جستارهای زبانی، ۹(۶)، 213-240.
عباسی، زهرا ( اسفندماه1393). تهیه و تدوین آزمون بسندگی زبان فارسی. نخستین همایش آموزش زبان فارسی، تهران: دانشگاه تربیت مدرس.
غفوریان، محسن و عاشوری، محمد (1396). دانش‌آموزان دیرآموز: ارزیابی پویا، ویژگی‌ها، شناسایی، شیوه‌های تدریس و بهبود ظرفیت یادگیری. تعلیم و تربیت استثنائی، 17(4)، 57-64.
محمدبیگی، ابوالفضل، محمدصالحی، نرگس و گل، محمدعلی (1393). روایی و پایایی ابزارها و روش‌های مختلف اندازه‌گیری آنها در پژوهش‌های کاربردی در سلامت. مجلۀ دانشگاه علوم پزشکی رفسنجان، 13(12)، 1153-1169.
محمدی‌روزبهانی، کیانوش (1385). مقدمه‌ای بر استانداردسازی اجرای آزمون‌ها: بررسی شرایط برگزاری آزمون‌های سراسری ورود به دانشگاه‌ها از راه سنجش رضایتمندی شرکت‌کنندگان. پژوهش و برنامه‌ریزی در آموزش عالی، 3(41)، 1-12.
 
Bachman, L. F. (1990). Fundamental considerations in language testing. Oxford: Oxford University Press.
Bachman, L., & Palmer, A. (2010). Language assessment in practice: Developing language assessments and justifying their use in the real world. UK, Oxford: Oxford University Press.
Bazerman, C., Little, J., & Bethel, L. (2005). Reference guide to writing across the curriculum. US, South Carolina, Anderson: Parlor Press LLC.
Carroll, J. B. (1961). The nature of data, or how to choose a correlation coefficient. Psychometrika, 26(4), 347-372.
Clark-Gareca, B. (2010). Language assessment in practice (Book Review). Teachers College, Columbia University Working Papers in TESOL & Applied Linguistics, 10(2), 41-46.
Coleman, A. L. (1998). Excellence and equity in education: High standards for high-stakes tests. Virginia Journal of Social & the Law, 6(10), 81-114.
DeVon, H. A., Block, M. E., Moyle Wright, P., Ernst, D. M., Hayden, S. J., Lazzara, D.J., et al. (2007). A psychometric toolbox for testing validity and reliability. Journal of Nursing Scholarship, 39(2), 155-64.
Farhady, H., Jafarpur, A., & Birjandi, P. (2007). Testing language skills: From theory to practice. Tehran: SAMT.
Harsch, C. (2017). Proficiency. ELT Journal, 71(2), 250-253.
Herman, J., Dreyfus, J., & Golan, Sh. (1990). The effects of testing on teaching and learning. Los Angeles, CA, National Center for Research on Evaluation, Standards, and Student Testing.
Kachru, B. B. (1986). The alchemy of English: The spread functions and models of non-native Englishes. Oxford, UK: Pergamon.
Kane, M. T. (2011). Validating score interpretations and uses. Language Testing, 29(1), 3-17.
Lado, R. (1961). Language testing. US, New York: McGraw-Hill.
Motallebzadeh, K., & Baghaee Moghaddam, P. (2011). Models of language proficiency: A reflection on the construct of language ability. Iranian Journal of Language Testing, 1(1), 42-48.
Nunan, D. (1989). Second language teaching & learning. Boston: Heinle & Heinle.
Poehner, M. E. (2008). Dynamic assessment: A Vygotskian approach to understanding and promoting second language development. Berlin: Springer.
Poehner, M. E. (2009).Group dynamic assessment: Mediation for the L2 classroom. TESOL Quarterly, 43(3), 471-491.
Roever, C., & McNamara, T. (2006). Language testing: The social dimension. International Journal of Applied Linguistics, 16(2), 242-258.
Roy Chan, K. L. (2020). Washback in education: A critical review and its implications for language teachers. Journal of Foreign Language Education and Technology, 5(1), 108-124.
Terry, M. & Wilson, J. (2004). Focus on academic skills for IELTS. England: Pearson Education Limited.
Tupas, T.R.F. (2004). The politics of Philippine English: Neocolonialism, global politics and the problem of postcolonialism. World Englishes, 23(1), 47-58.
Yin, R. K. (2010). Qualitative research from start to finish. New York: The Guilford Press.