研究生: |
鄭康祥 Jheng, Kang-Siang |
---|---|
論文名稱: |
105年國中教育會考數學科試題分析-
以新北市立某國民中學為例 The Study of Mathematics Item Analysis from 105 Comprehensive Assessment Program for Junior High School Students-A Case Study of A Junior High School in New Taipei City. |
指導教授: |
曾建銘
Cheng, Chien-Ming |
學位類別: |
碩士 Master |
系所名稱: |
教育學系 Department of Education |
論文出版年: | 2017 |
畢業學年度: | 105 |
語文別: | 中文 |
論文頁數: | 128 |
中文關鍵詞: | 古典測驗理論 、國中教育會考 、試題分析 、試題反應理論 、學生問題表 |
英文關鍵詞: | classical test theory (CTT), Comprehensive Assessment Program for Junior High School Students, item analysis, item response theory(IRT), student-problem chart (S-P chart) |
DOI URL: | https://doi.org/10.6345/NTNU202203519 |
論文種類: | 學術論文 |
相關次數: | 點閱:390 下載:49 |
分享至: |
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報 |
本研究旨在以新北市立某國民中學九年級學生參加105年國中教育會考數學科作答反應資料情形,作為研究者關注學生學習表現與分類的依據,以獲得教學改進資訊。本研究方法依據古典測驗理論、試題反應理論與學生問題表進行試題分析,對於九年級學生學習數學科成果的了解是有正面的幫助。研究結果如下:
一、在試題檢核上,「問題解決」的試題命題佔大多數;在九年一貫能力指標上,所有試題都在能力範圍內;「幾何(S)」的命題數最多。
二、整份測驗的信度值良好,其Cronbach-α係數值約為0.83,表示測驗具有可靠性,試題有良好的測驗品質。
三、在CTT試題分析上,試題平均難易度指數約為0.44,屬於中間偏難;試題平均鑑別度指數約為0.52,具有良好鑑別度;本試題有87%的誘答選項符合誘答辯識原則。
四、在IRT試題分析上,試題Rasch平均難易度指數約為-0.32,屬於中間難度;學生能力平均值約為-0.55;最大訊息量約為12.48出現在能力值為0.00處,顯示本份試題對於中等能力的學生,能提供較多有用的訊息。
五、在學生問題表分析上,差異係數平均值為0.52;試題係數在試題B型& B'型區佔總體的60%以上,本份試題是困難的;學生注意係數在C& C'型區約佔總體的69%,學生學習能力以「中後程度者」佔多數。
六、新北市立某國中試題平均通過率最低的數學內容主題是「幾何(S)」,試題通過率與全國、新北市全體比較差異最大的是「代數(A)」。
依據試題分析的研究結果,本研究對測驗命題者及未來後續的研究提出相關建議。
The aim of this research is to examine one of junior middle school ninth grade student’s responses to test questions in mathematical examination of Comprehensive Assessment Program for Junior High School Students in New Taipei City. The researcher pays attention to students’ study results and performance groupings in order to get information about improving teaching. According to the item analysis of various approaches including classical test theory (CTT), item response theory (IRT) and student-problem chart, the researcher can acquire more useful information about students’mathematical test results.The results were as follows:
1.The analysis of questions on the checklist, the proposition emphasis on “problem solving”;in nine consistent indicators of ability, all questions inside the capacity range;the proposition of questions emphasis on “Geometry”.
2. The whole test reliability is about 0.83, with good reliability, which means that reliability questions, that there is a good test quality.
3.In CTT item analysis, the item difficulty index averages about 0.44 for somewhat hard difficulty;item discrimination index averages about 0.52 for good discrimination;87% options of this test are very good.
4. In IRT item analysis, the item difficulty index on Rasch logic model averages about -0.32 for moderate difficulty;the ability value of students averages about -0.55;the largest testing quantity of the information formula is about 12.48 with an ability value of 0.00, which means that the whole test supplies helpful information for moderate student’s ability.
5. In S-P chart analysis, the disparity index averages about 0.52 inside the acceptable range;the types of B and B' based on the caution index of problem are above 60%,which means that the whole test is difficiult;the types of C and C' based on the caution index of student are about 69% ,which means that most of the students are low-achieved.
6. The lowest average correst rate of mathmatici topic is on “Geometry” at a junior
iii
high school in New Taipei City;the largest difference of correst rate in the mathmatici topic is on “Algebra” relatively.
Based on the results of item analysis, this research will propose some instrumental commentaries and upcoming research.
壹、中文部分
王慶弘(2014)。102年國民中學學生基本學力測驗數學科試題分析與建議(未出版之碩士論文)。國立高雄師範大學數學系數學教學研究所,高雄市。
王寶墉(1995)。現代測驗理論。臺北市:心理出版社。
左太政(2013)。從測驗理論談數學科命題。飛揚月刊,85。取自http://cap.ntnu.edu.tw/fly/103/1038502.html。
朱經明(2007)。教育及心理統計學。臺北市:五南出版社。
余民寧(2009)。試題反應理論及其應用。臺北市:心理出版社。
余民寧(2011)。教育測驗與評量-成就測驗與教學評量(第三版)。臺北市:心理出版社。
吳柏林、謝名娟(2016)。市場調查實務:問卷設計與研究分析(第二版)。臺北市:新陸書局。
吳慧珉(2001)。選項特徵曲線之研究-以核函數之平滑化為估計取向(未出版之碩士論文)。國立臺中師範學院教育測驗統計研究所,臺中市。
李慧芬(2010)。從九十九年基本學力測驗結果看數學科教學成效(未出版之碩士論文)。國立高雄師範大學數學系數學教學研究所,高雄市。
李簡秋玲(2010)。國中數學科教學與評量研究(未出版之碩士論文)。天主教輔仁大學應用統計研究所,新北市。
周文欽(1999)。心理學教育測驗。臺北市:心理出版社。
林育柔(2002)。試題選項特徵曲線分析法-在「國小中年級面積概念」的應用(未出版之碩士論文)。國立臺中師範學院教育測驗統計研究所,臺中市。
林清山(1992)。心理與教育統計學。臺北市:臺灣東華書局。 凃柏原(2005)。DIMTEST與NOHARM在檢測資料為非單一向度上表現之研究。臺南市立教育大學學報,39(1),63-80。
秦永健(2012)。國中數學基測與校內段考之分析(未出版之碩士論文)。國立臺灣師範大學教育學系,臺北市。
張春興(1992)。現代心理學。臺北市:臺灣東華書局。
教育部(2003)。國民中小學九年一貫課程綱要數學領域。臺北市:作者。
教育部(2013)。試辦國中教育會考說帖。2013年3月4日,取自http://www.cap.ntnu.edu.tw/ 教育部(2014)。國中教育會考計分相關問題說明。2014年6月6日,取自http://www.cap.ntnu.edu.tw/
教育部(2016)。國中教育會考宣導簡報。2016年12月22日,取自http://www.cap.ntnu.edu.tw/
許添明(2016)。民主與教育-改善弱勢者良方。民主與教育國際學術研討會,國立臺灣師範大學。
許擇基(1995)。項目反應理論。載於周文欽、歐滄和、許擇基、盧欽銘、金樹人、范德鑫(合著),心理與教育測驗(頁235-253)。臺北市:心理出版社。
許擇基、劉長瑄(1992)。試題作答理論簡介。臺北市:中國行為科學社。
郭生玉(2004)。教育測驗與評量。臺北市:精華書局。
郭生玉(2006)。心理與教育測驗(第十三版)。臺北市:精華書局。
陳文婷(2006)。結合學生問題分析表及試題概念結構圖之個別化回饋對國小數學學習之影響(未出版之碩士論文)。淡江大學教育科技研究所,新北市。
陳正昌、孫志麟、鄭明長、陳秀碧、樊雪春、劉子鍵、郭俊賢譯(1996)。教學設計原理(Principles of Instructional Design)原著Gange, R. M., Wager, W. W., & Briggs, L. J.。臺北市:五南出版社。
陳政漳(2003)。項目反應理論在自然科學科能力測驗之應用:部份給分模式與等級反應模式之比較(未出版之碩士論文)。中原大學心理學研究所,桃園市。
陳新豐(2015)。教育測驗與學習評量。臺北市:五南出版社。
曾建銘、陳清溪(2008)。2006年臺灣學生學習成就評量結果之分析。教育研究與發展期刊,4(4),41-86。
游森期、余民寧(2006)。知識結構診斷評量與S-P表之關聯性研究(未出版之碩士論文)。國立政治大學教育與心理研究所,臺北市。
楊世瑩(2014)。SPSS 22 統計分析嚴選教材。臺北市:碁峰資訊。
楊志強(2004)。測驗品質考驗與TESTGRAF 98的應用。臺北市:九十三年度教育輔導叢書。
葉連祺、林淑萍(2003)。布魯姆認知領域教育目標分類修訂版之探討。教育研究月刊,105,94-106。
潘靖瑛(2005)。IRT理論在測驗編製的應用。IRT測驗與教學,1,26-51。
蔡坤憲譯(2006)。怎樣解題(HOW TO SOLVE IT)。原著G. Polya。臺北市,天下遠見出版社。
賴慧鞠(2013)。彰化縣101學年度國中新生入學測驗數學科試題分析(未出版之碩士論文)。國立臺中教育大學教育測驗統計研究所,臺中市。
簡茂發(2001)。心理測驗與統計方法。臺北市:心理出版社。
貳、英文部分
Allen, D. D., & Yen, W. M.(2001). Introduction to measurement theory.Monterey, CA: Books /Cole.
Anderson, L. W., Krathwohl, D. R., Airasian, P. W., Cruikshank, K. A., Mayer, R. E., Pintrich, P. R., Wittrock, M. C. (2001). A taxonomy for learning, teaching, and assessing: A revision of Bloom’s taxonomy of educational objectives (Abridged Edition).New York, NY: Longman.
Birnbaum, A. (1968). Some latent trait models and their use in inferring an examinee’s ability. In F. M. Lord & M. R. Novick (Eds.), Statistical theories of mental test scores (pp.395-479). Reading, MA: Addison-Wesley.
De Ayala, R. J. (2008). The theory and practice of item response theory.New York, NY: Guilford Press.
Devillis, R. F. (2011). Scale Development: Theory and Applications. Thousand Oaks, CA: SAGE Publications.
Glaser, R. (1962). Psychology and instructional technology. In R. Glaser (Ed.), Training research and education (pp.1-30). Pittsburgh: University of Pittsburgh Press.
Gulliksen, H. (1987). Theory of mental test. Hillsdale, NJ: Lawrence Erlbaum Associates. Guskey, T. R. (1985). Implementing mastery learning. Belmont, CA: Wadsworth Publishing Company.
Hambleton, R. K., Swaminathan, H. (1985). Item response theory: Principles and application. Boston, MA: Kluwer-Nijhoff.
Harwell, M., & Janosky, J. E. (1991).An empirical study of the effect of small data sets and varying prior variances on item parameter estimation in BILOG. Applied Psychological Measurement, 15, 279-291.
Hattie, J. (1985). Methodology review: Assessing unidimensionality of tests and items. Applied Psychological Measurement, 9, 139-164.
Hulin, C. L. Lissak, R. I., & Drasgow, F. (1982).Recovery of two-and three-parameter logistic item characteristic curves: A Monte Carlo study. Applied Psychological
Measurement, 6, 249-260.
Kibler, R. J. (1978). Objectives for instruction and Evaluation (2nd ed.).Boston, NY: Allyn and Bacon.
Kolen, M. J. & Brennan, R. L. (1995). Test Equating: Methods and Practices.New York, NY: Springer-Verlag.
Lord, F. M. & Novick, M. R. (1968). Statistical theories of mental test scores. Reading, MA: Addison-Wesley.
Lord, F. M. (1980). Applications of item response theory to practical testing problems. Hillsdale, NJ: Lawrence Erlbaum Associates.
Lumsden, J. (1961). The construction of unidimensional tests. Psychological Bulletin, 58(2), 122-131.
Mulaik, S. A. (1972). The foundation of factor analysis. NY: McGraw-Hill.
Ramsay, J. O. (1991). Kernel smoothing approaches to nonparametric item characteristic curve estimation. Psychometrika, 56, 611-630. Rasch, G. (1980). Probability models for some intelligence and attainment tests.Chicago, IL:The University of Chicago Press.
Reckase, M. D. (1979). Unifactor latent trait models applied to multifactor tests: Results and implications. Journal of Educational Statistics, 4, 207-230.
Sato, T. (1985). Introduction to student-problem curve theory analysis and evaluation. Tokyo:Meiji Tosho.(In Japanese)
Seong, T. J. (1990). Sensitivity of marginal maximum likelihood estimation of item and ability parameters to the characteristics of the prior ability distributions. Applied Psychological Measurement, 14, 299-311.
Suen, H. K. (1990). Principles of test theories. Hillsdale, NJ: Lawrence Erlbaum Associates. Wright, B D., & Master, G. N. (1982). Rating scale analysis. Chicago, IL: MESA Press. Wright, B D., & Stone, M. H. (1979). Best test design. Chicago, IL: MESA Press.