Експертна комп’ютерна оцінка знань

Автор(и)

  • O. M. Terentiev Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Ukraine https://orcid.org/0000-0001-7849-5929
  • A. I. Kleshchov Інститут екологічного підприємництва, Школа природничих наук, Університет прикладних наук та мистецтв, Switzerland https://orcid.org/0000-0002-9412-4156

DOI:

https://doi.org/10.30839/2072-7941.2018.130753

Ключові слова:

оцінка знань, блок-схема, комп'ютерна оцінка, програма експертної оцінки

Анотація

Актуальність теми дослідження полягає у відсутності можливості визначити обсяг засвоєного матеріалу предмета, що вивчається, що не дозволяє студенту зрозуміти, що потрібно вивчити повторно, щоб підвищити обсяг своїх знань з даної дисципліни. Головна мета статті – розробка експертної навчальної та контролюючої системи оцінки знань, що визначає конкретні прогалини в засвоєнні матеріалу учнем і пропонує заповнити прогалини знань з власної бази. Завдання дослідження: проаналізувати і виділити загальні недоліки в існуючих системах оцінки знань студентів; сформувати програму експертної оцінки знань. Методологія. При дослідженні методом індукції сформульовані принципи системи навчання студентів, що дозволило встановити недолік існуючих систем оцінювання рівня знань студентів і, на підставі цього, запропонувати нову програму експертної оцінки знань у вигляді блок-схеми. Результати дослідження. Розроблено експертну навчальну систему оцінки знань, що визначає конкретні прогалини в засвоєнні матеріалу, дозволяє визначити і заповнити відсутні знання студенту з власної бази. Сформована програма експертної оцінки знань у вигляді блок-схеми з виділеними блоками знань, завдань, умінь, яка дозволяє викладацькому складу використовувати її в розрізі окремої навчальної дисципліни. Висновки. Встановлено недолік існуючих систем оцінювання рівня знань студентів – відсутність можливості визначити не тільки обсяг засвоєного матеріалу предмета, що вивчається, а й перелік конкретних тем для повторного вивчення після проведеного оцінювання. Сформовано програму експертної оцінки знань у вигляді блок-схеми з виділеними блоками знань, завдань, умінь, яка дозволяє викладацькому складу використовувати її в розрізі окремої навчальної дисципліни.

Біографії авторів

O. M. Terentiev, Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського»

Доктор технічних наук, професор кафедри електромеханічного обладнання енергоємних виробництв

A. I. Kleshchov, Інститут екологічного підприємництва, Школа природничих наук, Університет прикладних наук та мистецтв

Кандидат технічних наук

Посилання

Wagener, S., Möltner, A., Tımbıl, S. and Gornostayeva, M. (2015). Development of a competency-based formative progress test with student-generated MCQs: Results from a multi-centre pilot study. GMS Zeitschrift für Medizinische Ausbildung, [online] 32(4), 1-29. Available at: http://www.egms.de/static/en/journals/zma/2015-32/zma000988.shtml [Accessed 4 Jan. 2018] [in English].

Vleuten, C., Verwijnen, G. and Wijnen, W. (1996). Fifteen years of experience with progress testing in a problem-based learning curriculum. Medical Teacher, 18(2), 103-109 [in English].

Wrigley, W., Van Der Vleuten, C., Freeman, A. and Muijtjens, A. (2012). A systemic framework for the progress test: Strengths, constraints and issues: AMEE Guide No. 71. Medical Teacher, 34(9), 683-697 [in English].

Lowe, J. and Yu, X. (2009). Computer Assisted Testing of Spoken English: A Study of the SFLEP College English Oral Test System in China. Journal of Systemic, Cybernetics and Informatics, 7(3), 33-38 [in English].

Azarmi, B., Jahangard, A. and Movassagh, H. (2015). Learners Test Performance and Gardner`s Multiple Inteligence Theory: Intercorrelation in a Bilingual Context. Brain : Broad Research in Artificial Intelligence and Neuroscience, 3(4), 51-55[in English].

Scherer, R., Rohatgi, A. and Hatlevik, O. (2017). Students' profiles of ICT use: Identification, determinants, and relations to achievement in a computer and information literacy test. Computers in Human Behavior, 70, 486-499 [in English].

Servidio, R. (2017). Assessing the psychometric properties of the Internet Addiction Test: A study on a sample of Italian university students. Computers in Human Behavior, 68, 17-29 [in English].

Pruet, P., Ang, C. and Farzin, D. (2016). Understanding tablet computer usage among primary school students in underdeveloped areas: Students’ technology experience, learning styles and attitudes. Computers in Human Behavior, 55, 1131-1144 [in English].

Ishii, K., Rife, T. and Kagawa, N. (2017). Technology-driven gratifications sought through text-messaging among college students in the U.S. and Japan. Computers in Human Behavior, 69, 396-404 [in English].

Ifinedo, P. (2017). Examining students' intention to continue using blogs for learning: Perspectives from technology acceptance, motivational, and social-cognitive frameworks. Computers in Human Behavior, 72, 189-199 [in English].

Rybinski, K. (2016). Does Standardized Testing Make Best High School Students Dumber?. SSRN Electronic Journal [in English].

Paranto, S. and Neumann, H. (2006). Analysis of a Student-Centered, Self-Paced Pedagogy Style for Teaching Information Systems Courses. SYSTEMICS, CYBERNETICS AND INFORMATICS, [online] 4(6), 1-4. Available at: http://www.iiisci.org/journal/CV$/sci/pdfs/P915373.pdf [Accessed 4 Jan. 2018] [in English].

##submission.downloads##

Опубліковано

2018-05-10

Номер

Розділ

Філософія освіти