摘要:综上可见,测试是对阶段教学的评估,是一个新的开始,因此所谓讲评,重点不在讲、也不在评,更在于分析。学生在某个知识点、某个技能点上,共性错误说明什么问题(这个属于异常数据值得关注)。

试卷讲评分三个步骤。

第一步:数据统计

这一步主要看三组数据:

1)小题得分率。

横向对比班级之间、班级和学校整体之间(大型考试还有市区级数据),这个最能看出自己教学中的薄弱点。

2)错题分布点。

学生在某个知识点、某个技能点上,共性错误说明什么问题(这个属于异常数据值得关注);一般我们往往忽视分散的、个性化的错误表现,这个往往更能反映学生个体的认知偏差(如果有连续数据更好,例如某学生的主谓一致问题。)

3)连续的数据。

在某一个点上、多次测试的记录,这个看似难做,因为它需要两个前提:首先是命题的精准度;而命题的精准度又取决于另一个工具——网格化的测试点清单(这个另文结合案例阐述)。一般认为,“技能”无法具化为“点”,这是错误的,例如我们的“句组关系”就是讲“连贯”分为五类、十种表现,这就是完型填空题挖空的基本“算法”。

(详见文后的案例和图片)

第二步:错因分析

解决关于试卷处理的三个常见问题,即讲什么、怎么讲、讲不讲。通过数据我们会发现:“讲评”的效果有三种可能。

1)耗时短、可改善。

这部分题目是讲评重点。比如summary,学生如果找不到“点”,我们可以给他按照四种常见文体建模,例如说明类的W-H-R

2)耗时长、可改善。

这部分重在后续训练、而不是“讲”。同样是summary为例,他知道需要哪些“点”,但是总是找错位,那就涉及语篇建构能力了,可以从“段落、句组、复现”这个角度设计练习。

3)耗时长、难改善。

这需要我们反思教学内容、个人教学风格、乃至学校课程是否合理,它是用来反思的、而不是课上“讲”的。还是summary,前两招都无效,那一定是阅读积淀不够、甚至是中文水平跟不上,单纯刷题就很难奏效,就要从泛读量上下功夫了。

第三步:方法建模

到了这一步,才真正进入到“提供解决方案”的阶段。为什么用“建模”这个词?因为我们所谓“教方法”,不是把自己的经验传授给学生(你的经验未必适合他——这是大部分人容易犯的错误。)

根据第二步的分析结果,接下来有三种可能。

1)教师讲授。

针对“知道不知道”的问题。当然这里说的、需要教师“讲”的,是那些需要较为复杂的演绎过程的内容,老师不讲、学生很难自己看懂。例如一些复杂的句法现象、文章所需的背景知识。

2)学生自纠。

针对学生原本知道、但是运用中屡屡出错的这类错误,需要我们给出明确的、简化的、适合学生认知水平的“算法”,让学生自己、或合作进行纠错。例如写作中“动词”的使用,我们分为“用得好的词、换一个更好的词、有语法错误的词”,让学生互相检查(注意:一次解决一类词,否则产生干扰、差的学生会没方向)、互相提示补充、头脑风暴。

3)实质改进。

针对错误和不足(这里包括教和学两方面的),设计下一步的工作,大体上分为三类:自适应练习;教法修复与改进;课程内容调整。

综上可见,测试是对阶段教学的评估,是一个新的开始,因此所谓讲评,重点不在讲、也不在评,更在于分析。所谓台上一分钟、台下十年功。

附:分析范例

一、常见错误的原因假设

二、某次测试的样本统计(局部)

三、某小题的分析结果

相关文章