Експертна комп’ютерна оцінка знань

O. M. Terentiev, A. I. Kleshchov

Анотація


Актуальність теми дослідження полягає у відсутності можливості визначити обсяг засвоєного матеріалу предмета, що вивчається, що не дозволяє студенту зрозуміти, що потрібно вивчити повторно, щоб підвищити обсяг своїх знань з даної дисципліни. Головна мета статті – розробка експертної навчальної та контролюючої системи оцінки знань, що визначає конкретні прогалини в засвоєнні матеріалу учнем і пропонує заповнити прогалини знань з власної бази. Завдання дослідження: проаналізувати і виділити загальні недоліки в існуючих системах оцінки знань студентів; сформувати програму експертної оцінки знань. Методологія. При дослідженні методом індукції сформульовані принципи системи навчання студентів, що дозволило встановити недолік існуючих систем оцінювання рівня знань студентів і, на підставі цього, запропонувати нову програму експертної оцінки знань у вигляді блок-схеми. Результати дослідження. Розроблено експертну навчальну систему оцінки знань, що визначає конкретні прогалини в засвоєнні матеріалу, дозволяє визначити і заповнити відсутні знання студенту з власної бази. Сформована програма експертної оцінки знань у вигляді блок-схеми з виділеними блоками знань, завдань, умінь, яка дозволяє викладацькому складу використовувати її в розрізі окремої навчальної дисципліни. Висновки. Встановлено недолік існуючих систем оцінювання рівня знань студентів – відсутність можливості визначити не тільки обсяг засвоєного матеріалу предмета, що вивчається, а й перелік конкретних тем для повторного вивчення після проведеного оцінювання. Сформовано програму експертної оцінки знань у вигляді блок-схеми з виділеними блоками знань, завдань, умінь, яка дозволяє викладацькому складу використовувати її в розрізі окремої навчальної дисципліни.

Ключові слова


оцінка знань; блок-схема; комп'ютерна оцінка; програма експертної оцінки

Повний текст:

PDF (English)

Посилання


Wagener, S., Möltner, A., Tımbıl, S. and Gornostayeva, M. (2015). Development of a competency-based formative progress test with student-generated MCQs: Results from a multi-centre pilot study. GMS Zeitschrift für Medizinische Ausbildung, [online] 32(4), 1-29. Available at: http://www.egms.de/static/en/journals/zma/2015-32/zma000988.shtml [Accessed 4 Jan. 2018] [in English].

Vleuten, C., Verwijnen, G. and Wijnen, W. (1996). Fifteen years of experience with progress testing in a problem-based learning curriculum. Medical Teacher, 18(2), 103-109 [in English].

Wrigley, W., Van Der Vleuten, C., Freeman, A. and Muijtjens, A. (2012). A systemic framework for the progress test: Strengths, constraints and issues: AMEE Guide No. 71. Medical Teacher, 34(9), 683-697 [in English].

Lowe, J. and Yu, X. (2009). Computer Assisted Testing of Spoken English: A Study of the SFLEP College English Oral Test System in China. Journal of Systemic, Cybernetics and Informatics, 7(3), 33-38 [in English].

Azarmi, B., Jahangard, A. and Movassagh, H. (2015). Learners Test Performance and Gardner`s Multiple Inteligence Theory: Intercorrelation in a Bilingual Context. Brain : Broad Research in Artificial Intelligence and Neuroscience, 3(4), 51-55[in English].

Scherer, R., Rohatgi, A. and Hatlevik, O. (2017). Students' profiles of ICT use: Identification, determinants, and relations to achievement in a computer and information literacy test. Computers in Human Behavior, 70, 486-499 [in English].

Servidio, R. (2017). Assessing the psychometric properties of the Internet Addiction Test: A study on a sample of Italian university students. Computers in Human Behavior, 68, 17-29 [in English].

Pruet, P., Ang, C. and Farzin, D. (2016). Understanding tablet computer usage among primary school students in underdeveloped areas: Students’ technology experience, learning styles and attitudes. Computers in Human Behavior, 55, 1131-1144 [in English].

Ishii, K., Rife, T. and Kagawa, N. (2017). Technology-driven gratifications sought through text-messaging among college students in the U.S. and Japan. Computers in Human Behavior, 69, 396-404 [in English].

Ifinedo, P. (2017). Examining students' intention to continue using blogs for learning: Perspectives from technology acceptance, motivational, and social-cognitive frameworks. Computers in Human Behavior, 72, 189-199 [in English].

Rybinski, K. (2016). Does Standardized Testing Make Best High School Students Dumber?. SSRN Electronic Journal [in English].

Paranto, S. and Neumann, H. (2006). Analysis of a Student-Centered, Self-Paced Pedagogy Style for Teaching Information Systems Courses. SYSTEMICS, CYBERNETICS AND INFORMATICS, [online] 4(6), 1-4. Available at: http://www.iiisci.org/journal/CV$/sci/pdfs/P915373.pdf [Accessed 4 Jan. 2018] [in English].


Пристатейна бібліографія ГОСТ


Wagener S., Möltner A., Tımbıl S., Gornostayeva M. Development of a competency-based formative progress test with student-generated MCQs: Results from a multi-centre pilot study. GMS Zeitschrift für Medizinische Ausbildung. 2015. Vol. 32. P. 1-29. : DOI 10.3205/zma000988

Vleuten C., Verwijnen G., Wijnen W. Fifteen years of experience with progress testing in a problem-based learning curriculum. Medical Teacher. 2015. Vol. 18. P. 103-109. : DOI 10.3109/0142159960903414

Wrigley W. Van Der Vleuten C., Freeman A., Muijtjens A. A systemic framework for the progress test: strengths, constraints and issues: AMEE Guide No. 71. Medical Teacher. 2012. Vol. 34. P. 683-697. : DOI 10.3109/0142159X.2012.704437

4 Lowe J., Yu X. Computer Assisted Testing of Spoken English: A Study of the SFLEP College English Oral Test System in China. Journal of Systemic, Cybernetics and Informatics. 2009. Vol. 7. P. 33-38.

Azarmi B., Jahangard A., Movassagh H. Learners Test Performance and Gardner`s Multiple Inteligence Theory: Intercorrelation in a Bilingual Context. Brain : Broad Research in Artificial Intelligence and Neuroscience. 2015. Vol. 3. P. 51-55.

Scherer R. Rohatgi A., Hatlevik O. Students' profiles of ICT use: Identification, determinants, and relations to achievement in a computer and information literacy test. Computers in Human Behavior. 2017. Vol. 70. P. 486-499.

Servidio R. Assessing the psychometric properties of the Internet Addiction Test: A study on a sample of Italian university students. Computers in Human Behavior. 2017. Vol. 68. P. 17-29.

Pruet P., Ang C., Farzin D. Understanding tablet computer usage among primary school students in underdeveloped areas: Students’ technology experience, learning styles and attitudes. Computers in Human Behavior. 2016. Vol. 55. P. 1131-1144.

Ishii K., Rife T., Kagawa N. Technology-driven gratifications sought through text-messaging among college students in the U.S. and Japan. Computers in Human Behavior. 2016. Vol. 69. P. 396-404.

Ifinedo P. Examining students' intention to continue using blogs for learning: Perspectives from technology acceptance, motivational, and social-cognitive frameworks. Computers in Human Behavior. 2017. Vol. 72. P. 189-199.

Rybinski K. Does Standardized Testing Make Best High School Students Dumber? SSRN Electronic Journal. 2016. : DOI 10.2139/ssrn.2888796

Paranto S., Neumann H. Analysis of a Student-Centered, Self-Paced Pedagogy Style for Teaching Information Systems Courses. Systemics, cybernetics and informatics. 2006. Vol. 4. P. 1-4. : Available at: http://www.iiisci.org/journal/CV$/sci/pdfs/P915373.pdf.





DOI: https://doi.org/10.30839/2072-7941.2018.130753

Посилання

  • Поки немає зовнішніх посилань.


Copyright (c) 2018 O. M. Terentiev, A. I. Kleshchov

Creative Commons License
Ця робота ліцензована Creative Commons Attribution 4.0 International License.

ISSN (print) 2072-1692, ISSN (on-line) 2072-7941