文摘

还原论和复杂性理论是两个范例经常在语言研究中找到。存在许多冲突的概念和方法论之间的还原论和复杂性理论,这都是不利于创造一个统一的语言研究框架。本文首先讨论复杂动态系统的适应性,结合认知处理模型和人工神经网络构建和验证一个自适应权重模型,证明了还原论的研究是归纳高体重元素和复杂性理论的研究是讨论从适应性系统的复杂性,这意味着这两个框架之间有一个不错的选择。自适应权重模型有利于开发一个统一的解释语言研究成果。

1。介绍

实验研究发现两组变量之间的相关性通过控制某一项或一组因素。因此,实验研究通常是语言研究的主流方法。在最近几十年,然而,一系列的理论的基础上,认为语言的发展是复杂的自适应系统,如联结主义、建设语法、emergentism,复杂动态系统理论,采用复杂性、互联性,和活力,引起了一场革命理论和方法(13,实验方法在语言研究领域面临前所未有的挑战。总之,仍值得商榷某些因素可能会影响语言发展可以单独研究和语言发展在多大程度上表现为个体差异或一组规则。在最后的分析中,这些纠纷根之间不同的想法,不同的还原论和复杂性理论。

最近,展示了机器学习模型有可能解决这个问题。机器学习已经被证明能够模拟语言的语言处理过程和解决问题研究[4]。机器学习算法拥抱互联性和活力5),这体现了复杂性理论的哲学。此外,机器学习模型可以处理单个元素的上下文在语言学习中,比如情绪分析,体现了简化的思考。因此,机器学习模型有可能整合复杂性和还原论在语言研究。不幸的是,很少有研究探讨这个问题使用机器学习模型。

根据这些考虑,研究集成了两个理论和基于机器学习算法的理论模型,旨在引发反思学术领域有争议的问题和提供有用的见解的建设一个统一的语言研究系统在未来。在目前的研究中,首先,我们审查之间的主要争议复杂性理论和还原论和复杂性的概念加以介绍,并适应构建复杂的想法,之后语言认知系统和人工神经网络的关系进行了讨论。基于上述分析,我们阐述了几个机器学习模型,并讨论了人工神经网络可以解决的研究差距的理论争议两个范例,之后提出了自适应权重模型,和原则讨论了模型的输入,输出,和统治层。此外,评估方法介绍了自适应权重模型和定量评估进行了评估模型的文本数据。此外,简化方法的一致和复杂性理论讨论了关于语言研究、机器学习、自适应权重模型。我们得出结论与讨论自适应权重模型,提供了一个全面的和自适应的语言研究解决复杂性理论和还原论的差距。

2。还原论和复杂性理论

2.1。主要还原论和复杂性之间的争议

简化论是一种哲学观点分为三个方面,即本体论还原论,方法论的还原论,理论简化论(6]。语言研究主要利用方法论的还原论,假定一个对象的解释应减少到最小的可能的实体,即。,最准确的理解一个对象是分解检查各部分(2,7]。简化论关注组件相关语言的性能通过控制扰动变量与一个实验设计,调查潜在因素分别得出因果关系。在语言的研究中,建立了因果关系的概念之间的一个或一组因素和学习者的语言表现是还原论。

语言的复杂性理论的研究是一个超理论,携带一系列相互关联的理论框架,即联结主义,出现理论,建构主义(8),假定语言的发展是一个复杂的动态系统,相互联系的元素。在此系统中,改变一个元素会导致其他元素在整个系统的变化。这些元素相互交织,相互作用,系统通过自组织行为出现(2]。因此,简化论的一个子系统的描述不能描述语言作为一个整体,和删除是不可能的一个因素来研究其对语言发展的影响。

尽管还原论和复杂性之间不兼容的思想理论、语言教学的例子可以证明这两个范式可能是兼容的。复杂性理论包含非线性各国之间的相互联系,认为一个因素的改变并不一定导致系统改变比例,这意味着预测将是困难的2,9]。然而,语言教师一般可以预测教学和学习者的成功将在考试取得更高的分数,也就是说,他们可以区分不同类型的学习者10]。这些复杂的有序行为语言开发系统简化论的概念,表明可预见性和不可预见性,秩序和混乱,简单和复杂并不绝对。

2.2。复杂性

复杂性是一个困难的概念来衡量。西蒙(11]认为复杂动态系统的最重要的特点是层次和不可分离性。层次结构意味着子系统组成的复杂系统,而不可分离性意味着子系统的相互作用是分不开的。因此,西蒙提倡“程度的层次结构”来衡量的复杂性。更复杂的一个复杂的动态系统,它涵盖了多个子系统和相互连接。逻辑深度是一个概念来衡量是多么困难的一个系统构造,也就是说,高度有序的序列逻辑深度较低,反之亦然(12]。因此,简单,具体测量方法可以测量与二进制编码的操作单元。越是混乱的概念和逻辑操作需要,其复杂性越高。科兰驰菲尔德和勇13提出了一种间接测量的复杂性,即。,the minimum amount of information needed to predict the future behavior of the system, in which complexity is connected to predictability. The more complex something is, the more difficult it is to predict. This scheme is similar to the “logical depth,” which expresses the difficulty of the regularity of concepts that we understand by complexity.

因此,复杂性是一个构造,反映了嵌套有多少级别的系统,有序和无序的程度,预测能力和属性,可以用来理解规则。从有序的简单概括法律现象,这意味着它们可以被定义为简单。另一方面,对于无序现象,很难概括法律,这些法律可以被定义为复杂。从复杂性理论的角度来看,这些系统的复杂性是由于大量的参与因素和存在的大量的非线性因素之间的关系。无序的东西越多,越复杂,越复杂,相互关联的元素越多,这很难引起法律和作出预测。静态和动态之间的冲突的本质,线性和非线性,个体差异和群体之间的冲突是法律语言研究还原论和复杂性理论的概念,它是植根于之间的冲突“简单”和“复杂”的元素语言开发系统。

2.3。适应构建复杂性

复杂动态系统的互联性和非线性特征的直接原因无法概括规则(14,15]。由于系统放大或减少特定元素的变化对系统的影响,各种元素交织创建系统的非线性特征。荷兰(16)认为,构建适应性的复杂性。一个复杂的动态系统的宏观行为出现相互作用的子系统,即。,the adaptive behavior of the system, which implies that humans intuitively believe that a complex dynamic system is controlled by complex behavior rules.

学习者的语言发展复杂动态系统是开放的,和外部环境本身是一个复杂的自适应系统,变化不断认知的参与,社会和自然元素。然而,如果一个特定的元素可以被孤立,这将是线性的。例如,如果一个教师改变教学策略,学生将感知这种变化和反应。如果这个元素参与了这一过程中,学习者的行为将是简单的和可预测的。然而,大量的元素参与学习者的写作发展的过程,在此期间学习者适应每个元素的变化。因此,当老师改变教学策略,学生们可能会决定他们是否有兴趣学习的主题必须涉及过去的经验。关注波动和变化,最近的心情,和其他可以预料和难以预料的元素进行交互。这意味着认知语言系统适应每个元素和导致学习者的行为,即“教学策略变化”的影响是复杂和不可预测的。

3所示。语言认知系统和人工神经网络

假设变化因素(如教学策略)输入和学习者的语言表达是一个输出,系统的互联性构建适应和复杂的处理规则。输入-输出的规则是最基本规则的复杂的动态系统,表明这是一个潜在的逻辑输入和输出之间的关系(17]。通过复杂的自适应规则输入信息输出。认知的复杂性在于自适应规则的复杂性。输入可以是任何类型的信息,比如一段文本,对话者的声音,教学策略、社会环境的变化,从另一方反馈,温度变化等。输出可能是肌肉组织,大脑可以直接操作。物理行为,如控制声带发出声音,让写作运动和变化的眼神交流,也可能是心理上的变化。输出将成为一个新的输入和输出,形成一个动态的循环。处理输入的信息在这个动态的过程周期是人类认知世界的过程中,和它的模型表达式是呈现在图1

一个信息处理系统(图1)由输入、规则和输出是适合所有复杂的动态系统,代表了语言认知过程。上述过程是认知过程的初步建模语言。然而,理解大脑信息处理的规则需要指联结主义的想法或bionicsism,旨在通过机器学习模型来模拟大脑处理机制。尽管人类大脑的认知模型仍然是有争议的学术领域中,现代机器学习模型(例如,深度学习模型)源自联结主义在某些方面超越了人类的大脑。例如,AlphaGo击败人类玩家,和计算机程序更有效比人类自然语言处理(NLP)和图像识别。现代机器学习模型可以从大量的输入来增强算法和输出更准确。因此,机器学习模型来解释语言认知过程理论和事实的基础上。

机器学习的算法模型,人工神经网络,人类大脑的信息处理机制的原型模拟(18]。图2提供了一个比较生物神经网络和人工神经网络。”赫(20.)发现,突触是塑料,激活频率较高的神经元之间的连接将被加强。认知科学研究的主流观点是,神经元是生物神经网络的最基本的单位,和神经细胞产生动作电位编码输入信号与脉冲频率。灵感来自神经元机制,人工神经网络使用人工神经元作为操作单元和模拟生物神经网络的激活频率的帮助下激活功能。重量是神经元之间的连接强度。神经元的迭代和组合构造一个人工神经网络(21]。

认知科学和人工智能的研究已经发现,可能有三个工作机制的神经网络:(1)行为主义,指外部刺激,(2)象征意义,类似于计算机的逻辑操作,和(3)联结主义发展成不同的人工神经网络。语言学领域的联结主义模型不同于当前的“深层神经网络,即。,connectionism can explain nonlinear development using a parallel distributed processing model to simulate the distributed and parallel characteristics of language neural processing, however, it cannot simulate brain regions and circuits involved in different levels of language processing [22]。目前来自联结主义的深层神经网络,涉及数学、信息学、认知神经科学、逻辑、和其他跨学科科学,已经发展成为一个核心模型的人工智能程序self-learn语言在某种程度上。神经网络的互连强调信息处理与语义加工在神经语言学的研究成果,在语言处理协调多个脑区而不是模块化的实体(23,24],它符合DST从语言发展的全面视图下视觉阈值系统行为出现的各种元素之间的交互系统。

的意义理解大脑处理机制(规则)的人工神经网络是人工神经网络的模拟大脑神经科学家的研究因为数学和基于逻辑的方法通常不能用于神经网络解释,补充和相互依赖25]。联结主义的起源是利用人工神经网络来了解智力活动,已得到实证结果的支持。研究人员发现,猕猴大脑的图像识别和工作机制类似于卷积神经网络(人工神经网络)26]。然而,尽管研究还远未完全模拟人类认知,人工神经网络是一个适当的模型,人类的大脑机制,适应和提取人类大脑信息出现机制(27]。因此,本研究使用了一个人工神经网络的模型模拟大脑信息处理理解语言开发系统的特点和语言发展的过程。它提出了一个考虑桥简化和复杂性理论的融合。

4所示。自适应权重模型

4.1。输入和输出层

输入层代表人类大脑如何处理外部世界进入信息(神经脉冲信号),而输出生成身体所表现出的行为和内部心理结构上的改变输出的语言学习(比如内存)。认知心理学研究表明,输入信息的存储(内存)分为三个部分,即短期记忆、工作记忆和长期记忆。三级记忆理论模型的存储位置,而不是一个算法层。大脑处理内存使用强度和语言信息的神经元连接。神经元连接强度的概念来源于体重计算心理学。有两种存储方式,在人工神经网络知识,即长期和短期记忆和体重。体重分为标准缓慢的重量和快速的权重。缓慢的权重对应于长期记忆,慢慢学习慢慢腐烂。快权重对应于短期记忆,快速学习衰减过快(21]。心理语言学中的启动效应可以用重量来解释。噪声会干扰学习者的目标词的识别。然而,目标词可以承认如果这个词已经暴露在短时间内目标词识别阈值降低,这意味着体重增加这个词。信息的处理机制在内存中也可以用重量来解释。一个重要的事件不太可能被遗忘,这是由于事件的增加体重。

在输入方面,高容量的重量矩阵用于短期记忆和处理信息存储在一个序列的信息。相对于长期和短期记忆存储在隐藏的神经单元,权重矩阵信息涉及到相应的处理流程,即。,大脑可以使用一个权重矩阵确定处理优先级。输入的重量可以解释为什么有很大的个体差异研究发现当相同的实验干预。它可以提供一个初步的解释的控制参数,因为在大脑信息处理的不同的权重。关注可以被视为quasi-weight参与过程。实际上,学生可能被吸引的有趣的事件,这是一个高重量给利益的内容。它通常涉及不随意注意。然而,他们可能在测试开始之后“过滤器”其他信息信号似乎专注于处理信息从试卷,这是一个有意识的操作在分析环境信息,通常包括有意注意。

在输出方面,语言学习者输出的身体活动和大脑处理后的变化。不同模式之间的分配权重算法依据特定的信息或模式处理复杂系统的吸引子。权重矩阵是一个内存存储配置,具有更高的容量和更高效的存储一套信息(或模式)21,28]。

4.2。规则层

大脑自适应处理规则是复杂的,涉及到很多领域,如神经科学、计算科学和认知科学。然而,大脑的处理规则可以被理解的算法层,这是一种神经网络与权重处理输入的信息。

4.2.1。准备隐马尔可夫模型

隐马尔科夫模型(HMM)是一种数学模型应用于时间序列分析,描述了一个马尔可夫模型的未知参数。马尔可夫模型的核心规则是一组时间序列,其状态的条件概率分布t只取决于国家在时间t−1和与国家无关t−1 (29日],它可以表示如下:

解释了马尔可夫模型,图3说明了转移概率。

假设语言发展状态是一个变量,这个变量可以观察到。当我们观察到的语言发展是在状态1t下次,学习者的状态t+ 1可能在状态2和p1的概率,在状态3和p7的概率,在国家4和票数的概率,或者在状态1,p13概率。此外,由于有限的国家在接下来的阶段,p1 +p7 +p9 +p13 = 1。的转移概率矩阵学习者的第二语言写作能力发展之间的不同状态可以表示如下:

假设状态是隐藏的,很难直接观察到,我们能直接观察到的是显式状态,嗯。隐藏的状态是嗯的未知状态参数。重要的是推断学习者的隐藏状态的显式状态应用相应的教学策略。嗯表示为图的状态转换4

嗯认为,当所有的隐藏和显式状态之前的时间t众所周知,隐藏状态的概率的时间吗t在时间t - 1[有关隐藏状态29日]。如果隐藏的状态是由国家代表和显式表示X,这条规则可以制定如下:

当所有的隐藏和显式状态之前的时间t众所周知,显式状态的概率的时间吗t隐藏状态的概率有关的时间吗t。这条规则可以制定如下:

当隐藏状态,所有的观察都是相互独立的。状态之间的转移概率嗯对应输入和输出层的重量。嗯是一个概率模型,推断后续状态从以前的状态,也能够预测时间序列。嗯提供时间序列处理的原则。然而,嗯是线性的和人类认知包含几层,虽然隐状态可能是多个,需要“记忆。“高维和需要更多的具体的非线性模型来表示语言认知过程,即复发性神经网络和神经网络。

4.2.2。递归神经网络

递归神经网络(RNN)最初是处理语言的神经网络模型序列信息领域的广泛使用NLP,图像处理,深度学习。图5(一)提出了一种递归神经网络的原理图,其中x代表输入序列向量(输入层),年代代表一个隐藏层,U表示矩阵的权重从输入层到隐层,o代表输出向量,V表示矩阵的权重从隐层到输出层W(重量)代表的重量,先前的值序列的隐藏层用作电流输入的重量。图5(b)是一个扩张的人物5(a),显示常规操作的关系t−1t,t+ 1。隐层的价值不仅是影响当前的输入序列,也与前面的输入有关。

RNN可以模拟非线性自适应系统和流程的输入信息基于序列的信息。图6的RNN模拟非线性自适应系统,Φ是一个非线性函数和每个输入的信息与前一时刻的信息。输入终端x和输出终端y完全通过隐层连接z,和适应规则嵌入到重量。RNN的信息处理互联性和适应性的特点。

RNN算法提供了一个可行的解决方案表示层为规则DST下根据动态语言的观点,认为语言的发展是一种自适应动态变化的过程,各个元素之间的相互关联性。RNN的输入是基于环境的感知和序列的动态变化信息在内存中,隐藏层代表输入信息。的核心规则序列受经验的影响,动态变化的输入信息。通过分配权重,规则可以适应新的输入。

RNN提供一个算法来处理语言和其他时间序列信息序列。然而,神经语言学研究表明,大脑是一个平行的多级处理系统,而不是一个设备用于处理语言和外部信息单位的词或短语(26]。过程语言和感知信息更准确地说,一个隐藏层的多层叠加是必需的,已开发的深层神经网络(款)。

4.2.3。深层神经网络

7是一个深层神经网络的原理图。后序列已经收到的信息输入层、输出层是达成的深加工的三级隐层输出。每个组神经元都有相应的权重,这表明所有的信息在所有水平和完全连接和互动,这意味着存在差异,因为不同的权重。款礼物的过程中“自组织”和“软大会”在一个复杂的动态系统。学习者接收大量的信息从感觉登记,成为一种原始的输入层。信息相互联系在一个深神经网络和规则包含在每个节点中。一定的信息给予低体重几乎没有影响隐层处理后输出层的结果。相反,如果一个信息被赋予更高的权重,这将大大影响到输出层的结果,和信息的重量重复激活也加强。大量的元素在复杂动态系统交互在款,结果出现在输出层。

一组深入处理语言信息处理在大脑同样款的多个层面,在不同的时间,域类似RNN [22]。因此,大脑对语言的处理规则和信息可以抽象为一个展开款RNN(深度递归神经网络(DRNN))。人类认知和DRNN之间存在显著的差异。模型的重量适应来自重量是调整系统的基于模型的输出。在深度学习模型中,常用的算法调整重量是反向传播算法。很难相信人类认知的重量调整是反向推导一层一层地。然而,学习者比较自己的产出和目标语言之间的差异在语言学习和导致心理变化,这体现了一个复杂的系统的适应。然而,没有证据表明,人类大脑中有类似的机制。算法表明,权重的分配规则每一层在人工神经网络的数学,而顶层规则quasi-weight神经元的连接强度分布的人类大脑仍然是一个谜。尽管不清楚规则,人工神经网络是优秀的模型在理解大脑的复杂的自适应系统的自适应规则(22,25]。

4.3。自适应权重模型

体重起着关键作用的算法组成输入,规则,和输出的语言发展的一个复杂的动态系统。在输入方面,信息进入大脑的重量决定,成为一个序列进行处理。在输出方面,权重矩阵知识的一种重要形式的记忆。在规则方面,形成一个的重量是一个重要的参数自适应规则。结合前面的讨论在输入、输出和规则,可以完成(图一个信息处理模型8)。

自适应权重模型可以分解为以下部分:(1)输入过滤:输入序列的信息过滤与quasi-weight信息序列,在quasi-weight分配矩阵输入信息(例如,注意力)。(2)外部信息处理:从过滤序列quasi-weight信息深循环神经网络,这是相关的实时处理。(3)储存:检索包含quasi-weight矩阵的信息存储到quasi-deep循环神经网络和存储的信息处理的quasi-deep循环神经网络。(4)外部操作:输出行为的过程和影响序列的输入信息。

输入过滤过程的输入信息序列与quasi-weight过滤信息序列,quasi-weight矩阵的过滤器信息权重较低。这个过程类似于注意力机制,与大脑可以直接检索quasi-weight矩阵来完成存储或检索和存储当前状态通过递归神经网络quasi-deep故意过滤信息。

外部信息处理的过程中过滤的信息序列与quasi-weights quasi-deep复发性神经网络。与quasi-weight序列的信息进入大脑的适应DRNN进行处理。处理机制类似于深循环神经网络和信息序列quasi-weight处理基于quasi-weight quasi-activation函数,和信息可以通过综合处理(款)或分步处理根据输入时间序列(RNN)。包含quasi-weight矩阵的存储的信息也将参与这个过程,和输入信息将适应新的权重矩阵每个处理水平(输入层、隐藏层和输出层)。

第三个组件是存储。自适应深层神经网络处理信息之后,一方面,系统必须存储激活函数的权重和自适应变化形成实时信息处理规则。另一方面,信息本身的形式存储在包含quasi-weight矩阵的知识。quasi-deep循环神经网络处理时,新和存储信息检索在一起或单独存储。包含quasi-weight矩阵生成的信息处理和存储后,下一个电话。实际上,大脑可能单独处理存储信息。在这个时候,没有新的信息从外部输入,这是被称为“冥想。“冥想之后,认知可能会改变。生成的知识(经验)信息输入在过去,因此,“冥想”实际上是大脑储存信息的自组织过程。包含quasi-weight矩阵的信息不断参与信息处理,和处理信息进入存储完成深之间的周期循环神经网络和存储。

第四个组件是外部行为的过程通过环境影响下一个输入的信息。个人参与自组织作为一个子系统的复杂动态系统的外部环境,体现个人的主观能动性。例如,语言对话控制肌肉的发音和写作改变了信息输入对话者的外部环境,使这些新的信息来源由议长对话者回应后接收。

5。自适应权重模型的评价方法

评估模型提出了研究和利用神经网络模型的可行性研究的复杂性和还原论问题,本研究编制了神经网络模型来验证语言特性的依赖相邻的步骤和时间之间的关系长期和短期记忆力和语言的性能。

漫长的短期记忆(LSTM)网络RNN的一种变体。从概念上讲,LSTM复发性单元可以“记住”目前为止所有过去的知识网络和“忘记”无关的数据30.),这是符合自适应权重的设计模型。因此,核心算法的自适应权重模型LSTM,这表明在语言识别和处理语言序列的应用前景,如讽刺识别文本数据。因此,该模型是基于LSTM网络,输入数据是设计成标准化的时间序列数据,以防止训练发散。数据分为两部分,一部分是用于模型训练,另一部分用于模型验证。相对应的模型是专为数据输入序列的每一刻,和LSTM网络学习来预测下一时刻的数据特征。LSTM层包含240个完全连接隐藏单位(隐藏单位)与复杂性理论的描述复杂系统的“联系”。培训采用自适应估计方法(亚当)。移动平均线指定了指数衰减率。防止爆炸的梯度,梯度阈值设置为0.9。指定的初始学习速率设置为0.003,和学习速率降低经过125轮的培训。

模型的核心是规则层互联性,这反映在时间迭代,即。,a large number of elements in the learner’s environment interact with the learner to emerge the learner’s language characteristics. The concentrated expression of the process, i.e., the subsequent development state, is always rooted in the previous development state, and the language characteristics at each point in time reflect the interaction of a specific environment and individual elements. Therefore, the core of the rule end is whether the neural network model can find the development law of a certain language feature and make possible predictions. In view of this, this study selected 256 English majors from three normal universities in northern China to develop data on the accuracy of written syntax. The study collected 7 essays completed by the subjects in one academic year. The interval between each writing task was approximately four weeks. All essays were completed within a limited time in class, and 1932 original writing texts were collected. The accuracy of the evaluation only considers syntax errors and does not involve spelling errors. All texts were firstly judged by the writing teacher and then by a foreign teacher. The cross-consistency of the two teachers’ judgments was 0.903, and the inconsistencies were resolved through negotiation. The first reason for choosing accuracy is that its rise and fall are considered to be affected by the complexity of the task. When the complexity of the task increases, the language accuracy may be reduced because of the limitation of the learner’s processing ability. Therefore, if the model can predict the rise and fall of the language accuracy, it indicates that there are unknown rules. Secondly, accuracy has a single dimension than other language features (such as complexity and fluency). It is less controversial, has stronger objectivity, and is convenient for statistics.

6。结果

训练后与精度数据显示前六的主题写作任务,该模型能够更准确地预测参与者的语法准确性兴衰性能在第七写作任务(图9),但是均方根误差(RMSE) 1.0847(图10),表明模型的估计数据的值是减少偏见。分析结果表明,自适应权重模型基于LSTM神经网络可以“学习”语法准确性测试开发规则在一定程度上。自适应权重模型模拟了规则的语言processingwith潜在的合理性,而规则中包含的重量单位异体神经网络通过traditionalstatistical方法很难找到。学习者的语言发展reductionistsexpect发现的“规则”,并显示的复杂性和不可预测性languagedevelopment用复杂性理论来解释,也就是说,出现fromchaos规则,和可预测性起源于复杂性通过语言发展的自组织系统。

7所示。讨论

自适应权重模型说明了还原论兼容复杂性理论在语言研究。因此,简化论的语言研究是高功率的重要元素,摘要和复杂性理论下的语言研究是信息处理的蓝图的描述。

7.1。简化的方法

自适应权重模型简化的方法提供了依据。语言的发展是一个迭代的过程信息随着时间的推移,这是以前的基础上进行材料和心理学在一个特定时间。认知创建了一个自适应权重矩阵的过程中反复处理信息,将不同的权重分配给元素。元素权重高的系统已经成为发展的重要因素。简化的方法可以确定元素与高体重对于大多数语言学习者通过控制输入,这是一个过程,涉及诱导宏观规则和确定因果关系。确定影响因素,最大程度地减少实验研究基于理论建立了影响语言发展的因素通过统计方法,如块方差分析、多元回归分析和结构方程建模。

的因素一直在争论中很长一段时间可能没有显著的体重大部分学习者的认知过程。因此,两个相互矛盾的理论假设预测两组的影响因素可能是兼容的。相比,假设是正确的,它可能是更重要的发现,促进假说之间的转换。任务复杂性语言性能的影响主要包括两个假设,即权衡假说(31日)和认知假说(32]。历史的大部分时间里,学术界并没有得出一致的结论两个假设的正确性。

基于自适应权重模型,它可以推断出这两种假设都是语言发展的一个精确的和不完整的描述。因此,任务的复杂性不是一个较高的权重的语言学习者语言发展的重要元素。两个假设描述不同时期或不同的学习者群体。自适应权重模型的假设也可能扩展到类似的有争议的假设。应该注意的是,这一立场是绝不怀疑,在这种自适应权重模型显示的规则仍然存在,可以知道。然而,由于系统的自适应规则的复杂性,确定现实的过程是复杂的。未来的简化的研究可能需要历时设计,可以提高学习者的粒度分类。

7.2。复杂性理论

语言发展不仅是一个迭代过程在时间上也是一种自适应并行信息处理过程的复杂性、动态、互联性、非线性元素的认知系统。权重矩阵是分布式的信息序列包含语言,处理的自适应神经网络。不同重量的信息是相互关联的,基于一个未知的大脑处理信息,复杂适应规则。基于复杂性理论的研究强调适应性创建复杂的动态过程,对应于quasi-weight矩阵和存储的过程中必然会发生适应性变化后的新信息的输入。研究利用复杂性理论也强调在语言发展中,各种元素的互联性对应于互联性在信息处理的自适应神经网络。复杂性理论的研究都集中在语言发展的非线性复杂quasi-weight对应矩阵,迭代的输入信息和相互联系的扩大或减少对输出的影响。因此,复杂性理论的研究通常是一个案例研究,旨在描述microdetails的复杂的自适应语言发展的过程。然而,如果某个重量信息是重要的,复杂的自适应系统可能仍然表现出显著的因果关系预测的还原论。因此,复杂性理论讨论的过程适应性产生的复杂性。

除了互联性,其他点的差异还原论和复杂性理论是个体差异和群体规则在语言发展。自适应权重模型表明,环境中的学习者有显著差异,输入信息序列,quasi-weight矩阵,存储,和其他维度,即。无所不在地、客观地、个体差异存在。然而,特定信息的重量意味着语言发展集团的规则。深层神经网络研究发现太小或太大的重量可能会导致梯度消失或爆炸。几个关键层显著影响多层深加工的结果。两个模型信息处理规则的影响是相似的关键层的行为类似,尽管不同的输入信息(27]。复杂性理论中的吸引子是类似的效果的体现,这是一个状态或模式系统的趋势,表明混沌系统可能会出现一个订单。流动的趋势表明宏观系统开发,这是还原论打算建立。一群秩序的方向流动,增加区分语言发展的维度类型的学习者,在该组织的规则应该是有序的。此外,同样的吸引子类型的学习者将有更大的概率遵循同样的规则。系统动力学是至关重要的,我们有理由期待在其他情况下共振。尽管任何情况下研究永远不会要求推广超越一个特定的情况下,它可以帮助我们理解的核心系统操作(10]。

平衡的自适应权重模型复杂性理论和还原论,利用实证研究和传统实验研究从复杂性理论的角度来看。各种元素的复杂性理论认为,一种语言开发系统和动态互联。因此,不同学习者的语言开发系统有所不同。大样本研究基于意味着消除个体之间的差异。因为语言开发系统的互联性的元素,是不可能孤立任何个人因素。因此,复杂性理论与还原论相冲突。尽管如此,自适应权重模型表明,复杂性理论并非完全不兼容还原论和语言开发系统,在某种程度上,被简化。如果我们坚持要考虑到所有参与元素在每一个语言的调查,我们将陷入不可知论。适当的简化和减少帮助我们掌握认知系统的规则。根据自适应权重模型,基于均值的大样本实验研究,在还原论,可以确定较高的权重(即。最有效的)的因素,大多数学习者的认知系统。 Identifying these high-weight factors is particularly important for the enrichment of the adaptive weight model and second language learning theories.

7.3。自适应权重模型

自适应权重模型是一个收敛的几个第二语言习得的理论框架。较理论模型基于认知、语言习得的自适应权重模型可以考虑动力学、复杂性、非线性、互联性、可预测性,和混乱的语言发展,集团法律的共存和个体差异。根据米切尔的分类、迈尔斯和马斯登[33),自适应权重模型是一个理论模型基于处理和输入。相比于efficiency-driven处理器模型(34)和加工性能理论(35),自适应权重模型侧重于外部世界的动态变化和在语言发展的交互系统。自适应权重模型作为明确的学习一般元素的输入。因此,该模型也兼容技能习得理论(36),认知假设,权衡假说等理论和假设的显式的学习。虽然根植于自适应权重模型为理论模型,如复杂性理论、emergentism,建构主义,它是更现实的和操作相比。

虽然统治层中使用的人工神经网络的自适应权重模型起源于联结主义的概念在语言研究领域,进一步发展。首先,语言联结主义的方法研究侧重于建模之间的联系语言输入,输出,和语言培训。自适应权重模型强调语言输入和环境中各种变量的影响。换句话说,自适应权重模型不仅是一种语言培训模型也是一种语言认知机制的模型。其次,语言研究联结主义的方法抓好计算机模型的实现,参数的确定,隐藏层的数量很小,有一个明确的激活函数。自适应权重模型并不强调计算机实现的现实(虽然有可能电脑实现)。相反,它强调理论和解释的属性,从而避免许多语言研究的联结主义模型的缺陷。例如,罗宾逊(37)认为,连接模型并不对应于人类的认知机制,和威廉姆斯和Kuribara38)认为,语言处理可能只是相似的匹配,而不是语法归纳。此外,集群的联结主义理论,建设语法、emergentism,复杂性理论表明,第二语言的收购是一个所有元素的动态交互过程。自适应权重模型提出了研究是基于语言发展的事实从重量的角度变化。它揭示了元素之间的相互作用机制,展示了个体差异和群体之间的动态连接法,动态和复杂性,和可预测性和混乱。

8。结论

复杂性理论的出现使得直接挑战还原论的权威。然而,有一个基本的争端还原论和复杂性理论在语言发展。基于联结主义认知模拟的思想,本文提出了自适应权重与深层神经网络模型,人工智能领域取得了可喜的成果。自适应权重模型提供了一个全面的和自适应的语言研究,表明有兼容性在语言研究中,复杂性理论,和还原论,表明研究范式可能进一步扩大。简化的研究可以采用历时实验设计探讨的潜在因素的动态和复杂性来确定哪些类型的学习者更符合规则预测的还原论,而基于复杂性理论的研究可以采用大样本研究设计关注集团法律同时也关注个体差异的动态(10]。

这项研究提供了对第二语言发展的动态建模的建议。在第二语言教学和研究中,研究人员发现很多因素影响语言学习者的发展。学习者遇到的因素在语言发展的过程中涉及到许多自然、社会、生理和心理元素。然而,要把这些元素融入语言发展模式是不现实的,和这些元素不都有同等影响语言的发展。因此,这些因素不同的权重分配模型。第二语言习得的核心因素是年龄、跨语言的影响,语言环境、记忆、意识、外语能力、动机、情感、社会文化等限制因素。核心因素的数量可能有所不同。虽然模型简化,只抓住本质,它在科学研究是必要的。这种简化不是还原论因为元素没有被孤立,和它们之间的联系还没有被忽视了。这些核心因素一般有限维度。 Therefore, computer modeling based on adaptive weight models is feasible because neural network models with hundreds of millions of parameters are not uncommon. In addition, these factors are explicit and implicit. True and quasi-experiment research generally uses the explicit representation of hidden parameters, which is carried out by statistical methods, such as structural equation modeling. In comparison, the adaptive weight model can model each learner based on computer models such as HMM.

这项研究是一种初步尝试将语言研究的两种范式。文学的神经元连接规则迫切需要支持发现认知科学和人工智能。研究人员可以进行实验研究来验证和丰富未来的模型。

数据可用性

程序代码和数据支持本研究的发现可以从曲阜师范大学(QFNU),曲阜,中国,但限制适用于这些数据的可用性,这是根据许可用于当前的研究,所以没有公开。然而,程序代码和数据可以从作者QFNU合理要求和许可。

的利益冲突

作者宣称没有利益冲突。

确认

这项工作是支持部分由中国国家社会科学基金(批准号。19 byy217和20 byy212)和部分中国教育的国家社会科学基金(批准号BEA180110)。