在线问卷的设计与评价

2024-05-24

在线问卷的设计与评价(精选四篇)

在线问卷的设计与评价 篇1

关键词:网络调查,在线调查,技术特色

作为递送问卷的新媒介, 互联网成为调查技术中最具革命性潜能的手段。在线问卷与传统问卷相比, 在调查费用、速度、外观、功能、灵活性以及可用性方面都有较大的优势[1]。但是就像其他新的技术手段一样, 虽然有这样那样的好处, 但也不可避免地受到人们的质疑。针对在线问卷的弱点, 批评主要集中在四个方面, 即有关调查的四个标准误差类型:涵盖误差, 不响应误差, 抽样误差, 还有测量误差。就其中的涵盖误差而言, 由于不同国家不同地域发展水平的不一致, 计算机和网络普及程度不同造成了更加显著的不响应误差 (当然事实上这些所谓数字鸿沟也在被经济的快速发展所填平) 。

当一个受访者不能对参与调查的邀请做出响应, 或在完成之前放弃问卷, 就产生了所谓不响应误差。纸质问卷一目了然, 受访者可以很快估计出多久才能完成问卷, 在线问卷在形式上不是那么直观, 因此设计在线问卷时可适当采用一些辅助手段来减少这种误差[2]。

就在线问卷而言, 当预期的样本集中的一小部分参与者被疏忽时 (因而也就难以做出响应) , 抽样误差也就可能产生了。这种疏忽可以表现在多个方面, 比如无视网络连接速度、带宽、浏览器的配置、硬件配置以及填答问卷时的用户需求等。类似地, 测量误差 (由不恰当的题目用词, 或导致难以预测的答案的题目引起[3]) 会使参与者变得困惑甚至灰心。

在线问卷设计的不合理, 抽样、测量和不响应这些误差就有可能发生。受访者不正确地回答问题, 放弃问卷, 最后甚至拒绝参与后续的调查, 因而也就不能处分发挥在线问卷的优势。

1 设计问卷的总体指导

一般来说, 以问卷为基本形式的调查是和网络站点的支持结合在一起的。也就是问卷的一般性质与网站的功能结合在一起, 将两者的基本属性一起体现出来。因此, 为了得到一组设计在线问卷的综合性指南, 需要首先对现有的针对纸质问卷和网站的设计纲要进行一次概览, 其中要特别关注可获取性和可用性[4]。此外, 也需要对目前为数不多的一些关于在线问卷的设原则要加以回顾, 此中较为突出的是D.A.Dillman的研究工作。在其关于“邮件和电话调查的总体设计方法[5]”研究的基础上, 作为“量身定制的设计方法[6]”一文的一部分, Dillman专门针对在线问卷的设计引入了十四条附加的指导原则。我们的概览的范围也基本上包括了Dillman的指导原则。因此, 在筛选、整合了那些很不相同的原则之后, 我们就在线问卷的设计提出了一套综合性的指导原则, 尽管发端自Dillman, 但涵盖了更加广泛的内容。限于篇幅, 这里只着重于指导原则的那些关键要素。

在最顶层, 我们在这里提出设计一份问卷时应遵从的流程, 其步骤如图1 (a) 所示。该文中, 指导原则主要着重于问卷内容的设计和实现步骤。到最后, 我们还要审视在线问卷应该采用的总体架构 (见图1 (b) ) , 提供这个层次所需的支持, 然后根据表1拣选出的问题逐步提炼出指导原则。

下面择要列出在线问卷中一些与文本编排有关的指导原则 (参见表2) 。

可以看到, 就单个而言, 上表列出的这些指导原则没有一条是特别创新的;每一条都是从前述的资料中提炼出来的。然而新颖之处在于, 这一套从各不相同的来源整理合并得到的实用的指导原则可以拿来支持在线问卷的设计。

2 评估的框架

选择在线问卷的开发工具不是一件简的单事情。问卷的开发者现在必须面对不断增多的各种各样的开发软件工具。大多数这样的工具可以让一个人很快很容易地开发出一份问卷。我们想评估这些工具多大程度上鼓励一个人乐意去开发一份好的问卷 (就我们的目的而言, 所谓好问卷就是遵从了有关问卷和网站设计的已有原则) ;也就是评估开发工具以何种程度和在多大范围内涵盖了我们的指导原则。

由Lumsden开发的SUIT是一个能系统地评估和比较用户界面开发工具的手段[7]。以框架和评估手段为中心, 对工具的评估, SUIT引入了基于参考模型的方法。

尽管SUIT本是专注于用户界面开发工具的评估, 但SUIT的基本原则仍然可以应用到任何类似事物的评估和比较上[8]。认识到一个网站 (自然也包括在线问卷) 本质上就是一个用户界面, 我们只要通过适当调整若干参数而得到一个修改版的SUIT。因此, 将我们拟定的评估原则应用到现有开发工具范围内的评估, 似乎也是理想的。

图2所示的是一个评估框架的一部分, 我们用它来评估在线问卷开发工具。在该框架中, 行代表着指导原则, 每行都使用简洁的概括语;行又归于一个标题之下 (例如图2中的“文本”) , 每个标题则代表在线问卷的一个要素。评价工具的依据是它们所拥有的功能, 以及每个功能与问卷结合的方式。若一个问卷不支持某项功能, 就标记为“不支持”;若支持某功能, 则还要考查它是自动地还是手动地与问卷结合, 以及对该项功能的控制是手动的还是自动的。总体看, 这些测量手段可以让我们确定在线问卷开发工具的功能和控制点。也可以根据它们对指导原则的支持来评估工具, 根据指导原则被表现的方式来测量工具;对于任何给定的指导原则, 假如该工具会依照指导原则限制相关功能的使用或设置, 那么对指导原则的支持可标记为“强制性限制”。支持机制并不是互斥的;就任何给定的指导原则有多种手段的支持也是可能的 (见图2中右下角方格区域) 。

3 讨论

在本项研究的视野内, 我们随机选择了15种在线问卷的开发工具;其中7个是基于Web的软件产品 (在线工具, 完成的问卷也在其主机上) , 另外8个是离线的软件产品 (离线工具, 安装在某人自己的计算机上) 。本项研究用到的软件与相关信息来自一些演示版的软件、免费账号和以销售商的教程。

在被我们研究的工具中, 平均有74%的工具支持我们列出的功能;除了在功能的细节上有轻微变化外, 无论是在线工具还是离线工具都无区别。依照“总体组织” (见表1) 对功能的要求, 没有一个工具明确地支持屏幕测试页或站点地图, 也没发现支持注册页或登录页开发的离线工具。

对“编排格式” (见表1) 的支持好一些, 但有的离线工具没有对flash的支持, 有的在线工具没有对表格和框架的支持。有关“问题类型和表述” (见表1) 的所有功能都被支持而无关工具类型。依照“主要技术议题” (见表1) , 没有工具支持对“辅助技术”的设计;令人吃惊的是, 没有离线工具支持严格的跨浏览器和跨平台的测试。

通过一一的测试, 平均来讲, 74%的时间被用来手动地实现所需功能;这个数字在离线工具方面稍高些 (80%) , 在线工具方面稍低些 (68%) 。类似地模式也出现在对功能的控制上, 平均来看78%的操作是手动完成的。令人感兴趣的是, 这些工具不但明显的缺乏相关的操作指引, 而且还很少支持在线问卷设计的自动化, 因而难以在一定程度上控制问卷品质。

4 结论与展望

在评估的基础上, 我们认识到这些在线问卷的设计工具需要加强对指导原则的支持, 使在线问卷的开发更加便利。如果不改进这种支持, 人们将不再着迷于把在线问卷应用到调查当中, 在线问卷的价值将得不到公平的认可。

目前我们仍然在开展这项实证研究, 依据指导原则自身的能力, 继续评估作为一个综合性的工具, 怎样去更好地指导在线问卷的设计与开发。最终我们计划开发一套在线问卷的设计工具, 在设计过程中指导开发者, 给开发者提示那些违反指导原则的所在。最后, 我们计划扩充指导原则, 添加关于语言的运用方面的内容。一份“结构合理”的问卷可能由于在表达问题和答案时用词不当;我们愿意就语言的运用提出建议, 在我们的开发工具里, 主要是藉由一些自然语言检查的形式。

参考文献

[1]Stiegera S.What are participants doing while filling in an online questionnaire:A paradata collection tool and an empirical study[J].Com puters in Human Behavior, 2010, 26:1488-1495.

[2]Lia Xiang, Chengb Chia-Kuen, Kimc Hyounggon, et al.A systematic comparison of first-time and repeat visitors via a two-phase onlinesurvey[J].Tourism Management, 2008, 29:278-293.

[3]Wright K B.Researching Internet-Based Populations:Advantages and Disadvantages of Online Survey Research, Online QuestionnaireAuthoring Software Packages, and Web Survey Services[J].Journal of Computer-Mediated Communication, 2005, 10 (3) .

[4]Alreck P.Settle R.Survey Research Handbook[M].3rd ed.New York, NY:McGraw-Hill, 2004.

[5]Aster A Z.Consumer research goes online[J].Marketing Magazine, 2004 (7) :13-14.

[6]Kwak N, Radler B.A Comparison Between Mail and Web Surveys:Response Pattern, Respondent Profile, and Data Quality[J].Journal ofOfficial Statistics, 2002, 18 (2) :257-274.

[7]陈永泰, 何有世.网络调查和传统纸质调查的差异性研究[J].统计与决策, 2008 (16) .

在线问卷的设计与评价 篇2

一、你能收到足够多数量的问卷么?

一说到要做在线问卷,很多人直接就想到问卷问题设计了,确实问卷问题设计是门学问,但是却往往没人分析在线问卷的可行性。说的直接点,你能在资源允许的情况下收到足够的问卷么?很多网站一些重要页面的位置都很抢手,要想放个问卷的入口,最好要自己心里有数,问卷入口占地位置,大小,占用时间。如果资源方告诉你,我在页面的底部可以给你个放一个调研问卷的入口,只能给你放1个月的时间,你能预估一下你能回收多少问卷么,预估问卷的数量是否足够让你分析出你想要的数据呢?这是时候你需要有一个重要的指标:页面每一个万个PV你能回收多少问卷。肯定有人会问了,如果我以前没在这个页面做过在线问卷,我怎么能预见到问卷的回收情况呀?当然如果以前做过类似统计,相信你心里一定有谱。我列出我做过的一些调研的问卷回复情况,可以供大家参考一下。

就我个人的经验而言,一般情况下问卷的回收情况会在1-5个/万PV之间。当然网站类型不同,页面的功能不同,调研入口的样式和位置等因素的不同都会影响问卷的回收情况。大家最好每次做完调研后都统计一下不同页面不同调研的回收情况,这样以后再做类似的调研可以很容易预估出问卷的回收情况:

问卷回收数=每天页面PV ×投放天数×预估问卷回收情况(每一个万个PV能回收多少问卷)

二、你是否能有足够多的投放时间?

记得以前我们曾经做过一个调研:某项功能是否满足了用户的需求。结果出现了令人啼笑皆非的结果。在调研问题和入口基本不变的情况下,第一次填写在线问卷70%用户认为该功能满足了他们的需求,而第二次调研只有30%用户认为该功能满足了他们的需求。而且两次问卷的填写数量都有上万份。而且这两个调研的时间间隔很近,网站整体的用户并没有发生变化。 因此,建议对于重要页面和功能的问卷要有一定时间积累,最好在一个月以上,

不同网站的不同用户访问网站都有一定周期的,在都放问卷是最好考虑一下,确保你的问卷在目标用户人群中有足够量的曝光。

三、你是否细分了回答问卷的用户?

不同的用户对于同一问题的答案会有不同。比如,在询问某些功能是否满足用户的需求时,你最应该问的是那些填写你问卷的用户是否使用过这个功能。无论是网站还是其他产品或者服务。总会有某些功能只有一部分用户使用,这些用户会认为该功能有用。但是,有些用户会对没有使用过的功能发表意见,而他们大多会认为那个功能没什么用。如果你的在线问卷恰恰由这些用户填写,而你有没有区分填写在线问卷的用户到底用过没有用这个功能。那么,你很可能会在分析错误的数据后,做出错误的决策:去掉或者弱化该功能。

四、别忘了我们还有cookie

利用cookie,我们不止可以防止“某些活跃用户”重复提交的问卷。我们还可以利用cookie自动记录下用户的相关信息,帮助你分析数据。例如,在调研网站的搜索功能时,记录会员ID,进入问卷前的URL,搜索关键词等。如果发现某个用户给你网站的搜索功能给了个很低的评价时。那么同过通过会员ID,你可以很容易知道,填写问卷的家伙是什么类型的用户。他访问过的URL和搜索关键词可以帮你还原用户使用搜索功能时遇到的抓狂情景: 也许用户看到的搜索结果和关键词不相关,或者搜索结果太少,甚至没有搜索结果。

五、别偷懒,每天跟踪数据

做在线的问卷调研,并不意味着你把问卷放到网上就不用管了。最好在问卷里加访问统计代码。然后,看看每天到底有多少用户打开了问卷,有多少用户提交了完整的问卷,有多少人没填写完,填写问卷的人都来自哪里。千万不要以为这是多此一举。因为通过这些数据的分析你可以提前发现很多问题。这种事情我就遇到过。记得有一次某个调研的在线问卷发布了,我第二天看数据发现,打开问卷的人寥寥可数,并且这次调研主要针对的是国外用户,结果发现访问问卷的用户ip都是来自国内。于是,我马上和相关的技术人员沟通,结果发现在部署在线问卷的时候,有两个美国的服务器没有部署上。汗,还是每天像照看菜园子一样照看一下你的问卷吧。

本文来自:www.2beusable.com/tips-of-doing-online-questionnaire-research.html

★ 幼儿园区域材料投放检查时间

★ 问卷的调研报告怎么写

★ 支行三月现金投放分析调研报告

★ 情感化设计氛围交互设计

★ 调研问卷中多选题的分析方法探讨

★ 投放协议书

★ banner广告设计8技巧交互设计

★ 关注问题,而不是解决方案交互设计

★ 问卷调查报告格式范文

在线问卷的设计与评价 篇3

【摘要】随着教育改革的深入和计算机网络技术的发展,计算机自动化考试已经成为一种趋势,针对目前考试系统只具备组卷评分功能,缺乏教师与学生的沟通互动及用户使用范围受限的问题,本系统采用B/S网络结构模式扩展了用户使用区域,并增加评价与推送功能,完善了教学反馈环节。本系统首先进行组卷、阅卷、评分,完成对学生知识点的考核,然后统计每个学生知识点的得分、错题率等信息,生成教学方案反馈给老师以促进教学改革,同时把错题知识点汇总,通过APP客户端发送给学生。

【关键词】无纸化考试 B/S架构 C语言考试系统

【基金项目】2013年,省级教研项目:基于“理实贯通、多元协作”的信息与通信工程学科教学创新研究,项目编号:2013286;2015年,湖北工业大学校级项目:基于PBL教学模式的智能考试、评估、推送C语言学习方案研究,项目编号:校2015062;2014年,湖北工业大学校级项目:面向电子信息类专业的一体化CDIO工程教育改革实践,项目编号:校2014013;2013年,湖北工业大学校级项目:电气卓越工程师培养程序设计类课程改革研究,项目编号:校2013011;2015年,华中师范大学中央高校基本科研业务费项目:基于设备指纹的数字音频被动取证关键技术研究,项目编号:CCNU15A05054;大学生创新创业训练计划项目(201510500035)。

【中图分类号】G64【文献标识码】A 【文章编号】2095-3089(2016)04-0211-02

一、引言

C语言作为国际上广泛流行的计算机高级程序设计语言,在广大高校的计算机及相关专业中是一门必修课程。对于C语言的考核虽然已经走向计算机自动化阅卷的道路,但目前的考试系统的设计局限于技术细节改善,如客观题评分标准的完善、随机组建算法设计,而忽视了教学的本质——考试只是教学的一个环节,而不是终极目标。

(一)系统需求分析

根据现在考试系统的现状,针对目前考试系统只具备组卷、评分功能,缺乏教师和学生的沟通互动,信息反馈及用户使用范围受限等问题,本系统强化考试后的反馈环节,在题库的数据库组建时,考虑题目与知识点的对应关系,题目的难度分级。学生在预习时,通过查看其它学生的考试结果,可以预判学习的重难点,合理分配学习时间。

(二)系统设计分析

二、系统的设计与实现

(一)系统总体设计

根据系统需求分析,在线并发C语言考试系统由两个PC客户端和一个Android客户端组成,设计分为两个阶段实现:(1)先完成基于B/S模式的教师和学生的PC客户端系统;(2)在PC客户端的基础上开发基于Android手机平台的反馈和师生交流系统,在线并发C语言考试系统采用B/S架构,用户可以在PC客户端进行系统访问,PC端进行数据的读取和存储,并提供完善的考试管理系统,该系统采用Basic语言在VB开发环境下实现。

(二)学生考试模块

1.考生登录模块

首先判断考生输入的账号和密码是否正确,若账号或密码错误则给出相应的错误警告,验证通过后进入后台数据库提取相关数据转入答题界面,并且记录登录次数,限制只能登录一次,否则给予相应警告。

2.考试答题模块

在后台数据库中抽取题目,将题目以选择题、判断题、填空题和程序设计题的形式在不同窗口中显示,并提示考试时间和答题结果,在时间完成后自动交卷,并将考试数据自动存入后台数据库。

3.分数显示和本地推送模块

在考试完成并提交答案后将激活分数显示和推送模块,首先将考生的答案和数据库标准答案进行比对,对比正确答案进行统计,然后将考生答案和得分情况存入后台数据库并显示到本界面,反馈给相应的考生,推送模块只有考生在点击本页面的推送按钮时才被激活,然后根据统计结果将相应的知识点和学习方案推送到本地客户端,同时将反馈的内容一并上传到教师端数据库,供教师端进行整体统计使用。

4.管理模块

在学生端管理模块部分主要实现对账号和密码的修改,考生可以在管理界面对自己的信息进行修改,首先输入初始设置的账号和密码,确认正确后就可以修改为更加安全的账号密码,保证个人的信息安全。

(三)教师管理模块

教师端登录模块与学生端基本相似,在此不做另外介绍,着重介绍几个主要的模块。

1.记录工具模块

在登录完成后便激活记录工具模块,并获得相应记录ID,初始记录为空,教师可在此记录相关的工作日志等信息,并只有相同ID才可以访问其内容,保障其安全性,另本系统工具模块自带浏览器,相关问题可随时上网查询而无需切换界面。

2.导入试题模块

点击进入导入试题模块,可以进行选择题、判断题、填空题和程序设计题的导入工作,教师输入完成并确认后系统将自动分配题号并存入后台数据库。

3.试题浏览模块

本模块主要对数据库中生成的临时temp表进行显示,点击确认后生成正式试题表并发送至学生考试客户端。

4.考生信息查询模块

考生信息查询模块主要对学生端反馈的信息进行汇总后在本地显示并供教师端查询使用,查询方式为单条件方式查询和组合式查询,查询结果在本界面进行显示。

三、系统的实现

(一)学生端功能实现流程

参加考试的考生首先进入一个登录界面,考生输入正确的账号和密码登录,进入登录界面后系统自动开始进行倒计时,考生选择相应的试题类型进入相应答题界面,答完题后返回并选择其他未作答的试题,直到答题结束后,点击提交试卷,系统自动进行处理和判断,得出考试分数并显示出来,考试分数会自动存入相应数据库的表中,考试系统会自动在本地的数据库中链接生成推送的知识点内容和相应的方案,考生可以在本地浏览或者在连接的APP客户端中进行浏览。

(二)教师端功能实现流程

教师在输入正确的账号后登录教师端,首先是组卷界面,教师可以在这个界面选择自动组卷或者人工组卷,组卷完成后可以点击预览模式进行对试卷的预览,确认无误后就可以点击确定来发布生成的试卷到学生端供考试使用。

参考文献:

[1]李雪玲,管群. 基于 PHP技术的在线考试系统设计与实现[J]. 计算机与现代化, 2009,(2): 118-121

[2]张朋. 用数据库编程开发考试系统[J]. Computer Knowledge and Technology 电脑知识与技术, 2009,(6): 1374-1375

作者简介:

在线问卷的设计与评价 篇4

随着信息技术的快速发展, 在线学习模式已成为传统的课堂学习模式的有益补充。学生可以通过网站在线学习相关的知识[1]。但是, 与传统的课堂教学模式不同的是, 我们难以对参与在线学习的学生们的学习效果进行评价。由于缺乏面对面的交流与沟通, 老师无法及时、准确地掌握学生的学习过程、状态以及学习效果[2]。

在对现有的理论、方法和技术进行深入分析和研究的基础上, 本文将以形成性评价为理论依据, 通过引入模糊数学来改进传统的在线学习评价方法, 提出一种基于模糊数学的在线学习学习效果评价模型, 并在该模型的基础上设计、开发一个在线学习学习效果综合评价系统。

2. 基于模糊数学的在线学习学习效果评价模型

1965年, Zadeh提出了模糊数学理论[3]。作为模糊数学的一个具体应用, 汪培庄提出了模糊综合评判方法[4]。模糊综合评判根据模糊隶属度理论把定性评价转化为定量评价, 可以对受到多种因素制约的事物或对象做出一个总体的评价。模糊综合评判的优点包括:数学模型简单;将定性判断与定量分析结合起来;对多因素、多层次的复杂问题评判效果好。而在线学习学习效果的评价实际上就是一个多因素、多指标的复杂评估过程, 因为评判一个学生的学习效果往往涉及到多个方面的因素。

下面, 我们提出一种基于模糊数学的在线学习学习效果评价模型。

该模型的具体流程如下:

(1) 建立因素集。因素集是一个集合X={x1, …, xn}, 其中每个元素代表了一种影响评判对象的因素。例如, 在评价某位计算机专业毕业生的毕业设计质量时, 教师可以考虑以下几个因素:x1=选题情况;x2=调研情况;x3=系统分析质量;x4=系统设计质量;x5=系统实现效果;x6=撰写规范性;x7=答辩情况。

(2) 建立权重集。通常, X中各个因素的重要性是不一样的。为了反映每个因素的重要程度, 教师需要对每个因素赋予一个权重。

(3) 建立评价集。评价集V={v1, …, vm}包含了教师可能给出的各种评判结果。教师需要在综合考虑各种影响因素的基础上, 从评价集中选择一个最合理的评判结果。

(4) 单因素模糊评判。教师从某个特定的因素出发进行评判, 以确定学生对V中每个元素的隶属程度。

(5) 模糊综合评判。教师根据单因素模糊评判的结果, 综合考虑所有因素的影响, 从而得出综合评判结果。

3. 基于模糊数学的在线学习学习效果综合评价系统

本文所开发的系统可以在Windows XP及以上的操作系统上运行。系统基于B/S结构, 使用Java和JSP作为开发语言, 以My E-clipse 10.7作为开发工具, 辅助以Dreamweaver CS6。数据库采用Microsoft SQL Server 2012, 并采用Tomcat 7.0作为Web服务器。

系统分为三层:评价信息获取层、评价决策层和数据资源层。主要包括以下4个模块:

(1) 评价信息获取模块。负责收集学生的各种评价信息, 从而为评价决策模块提供决策依据。

评价信息可分为静态评价信息和动态评价信息两种。其中, 静态评价信息是指在评价之前就已经确定, 不会随着评价过程的进行而改变的信息;而动态评价信息是指那些会随着评价过程的进行而不断地增加或改变自身内容的信息。对于静态评价信息, 本系统主要是通过用户界面让用户输入。而对于动态评价信息, 则通过嵌入在系统中的信息获取Agent来自动收集[5]。

(2) 评价信息管理模块。该模块负责对学生的各种评价信息进行存储和管理, 包括添加、修改、删除、查询、打印等操作。

(3) 评价决策模块。该模块是整个系统的核心, 其功能是根据评价信息获取模块所收集的各类评价信息, 按照预先设定的评价机制和量规对学生的在线学习效果进行模糊综合评判, 并给出评价结果。

系统所采用的评价方式有三种:一是学生的自我评价, 既包括自我测评、自我反省、自我调整。二是同学之间的互评, 最后是教师对学生的评价, 教师可以按照评价量规对学生做出相对客观、全面的评价。

本系统综合考虑了上述三种评价方式, 再结合学生的考试成绩和学习特征测量结果, 采用基于模糊数学的评价模型来计算出最终的评价结果。

(4) 评价结果反馈模块。负责将评价结果以正确的方式反馈给学生。评价结果的反馈要本着定量与定性相结合的原则, 分数或等级传递给学生的信息是有限的, 教师还需要通过鼓励性语言肯定学生取得的成就, 客观地指出其不足和今后努力的方向。

4. 小结

针对在线学习的学习效果难以评价这一问题, 本文提出了一种基于模糊数学的在线学习学习效果评价模型, 并开发了一个在线学习学习效果综合评价系统。该系统解决了传统评价方法重视学习结果而轻视学习过程、评价主体单一、评价信息不完整等问题, 对提高在线学习的整体质量将起到重要作用。

参考文献

[1]卢江, 基于智能手机的大学生移动学习调查研究[D].山西师范大学硕士学位论文, 2014.

[2]刘革平, 黄智兴, 邱玉辉, 基于数据挖掘的远程学习过程评价系统设计与实现[J].电化教育研究, 2005, 7, pp.67-69.

[3]L.A.Zadeh, Fuzzy sets[J].Information and control, 1965, vol.8, pp.338-353.

[4]汪培庄, 模糊集合论及其余应用[M].上海科学技术出版社, 1983.

上一篇:神经心理下一篇:如何上好电工实习课