分享到:

基于神经网络训练的战略分析和协商机制的绩效评价

1引言绩效评价对于企业的管理控制至关重要。绩效管理经历了以下阶段:财务绩效评价模型阶段;基于价值管理的阶段,代表性的有EVA模型[1];基于战略的财务指标和非财务指标相结合的绩效管理阶段,代表性的有平衡积分卡[2,3]、绩效金字塔等[4]。从总体上可将目前国内外常用的综合评价方法分为:专家评价法、经济分析法、运筹学和其它数学方法如数据包络法(DEA)、模糊综合评价法、层次分析法、数理统计方法等[5]。引入非财务指标体系是绩效评价的必然趋势。绩效评价对于企业的战略执行意义重大,是一种有效的战略控制工具,利用绩效评价可以实现企业诊断式控制和交互式控制[6]。现代企业的所有权和经营权的分离、产权多元化趋势和公司治理的需要,决定了绩效评价应当引入协商机制,从而形成科学合理的战略绩效综合评价体系。人们普遍认识到利益相关者的满意直接关系到股东利益的最大化,因此协商评价的专家组的成员应该兼顾产权所有者和经营者以及利益相关者的利益。2BP神经网...  (本文共6页) 阅读全文>>

西安电子科技大学
西安电子科技大学

FPGA加速卷积神经网络训练的研究与实现

卷积神经网络(Convolutional Neural Network,CNN)是一种具有多层结构的深度学习模型,通过大规模的训练学习从高维度的数据中提取复杂的特征。卷积神经网络的训练过程具有处理流程复杂,计算量庞大的特点,同时涉及大量数据的传输以及隐层数据的缓存。为了解决更抽象和复杂的问题,卷积神经网络的规模越来越大,传统通用计算机平台的串行操作模式已经很难满足网络训练的需求。而具有大量逻辑、运算单元的现场可编程逻辑门阵列(Field Programmable Gate Array,FPGA)在性能、并行运算、功耗和尺寸等诸多方面具有突出的优势,很适合用于加速卷积神经网络的训练过程。论文对卷积神经网络的训练过程进行了深入的研究,分析了训练过程的并行性和现有的FPGA硬件加速架构。在此基础上,本文提出了一种全新的基于Zynq系列FPGA架构的硬件训练框架,用于加速卷积神经网络的训练过程。Zynq芯片的PS(Processing ...  (本文共79页) 本文目录 | 阅读全文>>

天津大学
天津大学

基于异构计算平台的并行神经网络训练算法设计

现如今人工智能已经渗透到人们生活的各个角落,很多行业都通过人工智能实现了巨大的发展。人工智能的核心技术是人工神经网络,人工智能的广泛应用离不开神经网络技术的巨大进步。但是,神经网络技术的进一步发展仍然面临很多挑战。目前,人工神经网络应用面临的主要挑战之一就是训练,其实质是一个基于大量数据反复迭代优化的过程。该过程需要极高的计算能力和高效的最优解搜寻方法。本文针对神经网络训练过程中面对的问题,进行了详细的探索与分析,并凭借异构计算平台的强大计算能力,设计并实现了三种并行优化算法。首先,针对神经网络训练时间较长的问题,实现了并行BFGS拟牛顿算法;其次,针对传统的神经网络训练方法易陷入局部收敛的问题,设计并实现了一种多群体PSO并行算法;最后,为了提升神经网络训练过程中的收敛速度,将BFGS拟牛顿算法与PSO算法相结合,实现了BFGS-PSO混合算法。实验结果显示,与传统的基于CPU的串行算法相比,本文设计的并行BFGS拟牛顿算法最...  (本文共75页) 本文目录 | 阅读全文>>

辽宁工程技术大学
辽宁工程技术大学

互学习神经网络训练方法研究

人工神经网络经过近30年的发展,在理论和应用上取得了辉煌的成就,然而如何在确定的神经网络结构下,选择网络权值更新方法和训练方法,以解决传统神经网络易陷入局部最优,泛化能力差等问题,仍是神经网络研究的重点.针对BP神经网络收敛缓慢的问题,提出了一种新的BP神经网络权值更新方法:子批量BP神经网络权值更新方法,该方法通过对训练数据进行随机分组,实现数据分割,这样即可以利用矩阵操作来加速网络计算,同时还可以在数据的相似性和差异性之间达到一种平衡,以达到综合利用数据随机扰动和均值滤波的效果.数值实验结果表明:BP神经网络子批量权值更新方法是一种快速稳定的收敛算法,算法学习参数经优化后可大幅缩短网络收敛迭代次数和训练时间.针对BP神经网络泛化能力差的问题,借鉴互学习的概念,提出了一种新的网络训练方法:互学习BP神经网络训练方法.该方法把互学习的概念应用到神经网络训练中,通过建立在网络结构上具有对称性的正负向神经网络,以达到正负向神经网络在...  (本文共61页) 本文目录 | 阅读全文>>

天津大学
天津大学

拟牛顿法硬件加速平台的实现及在神经网络训练中的应用

人工神经网络是受大脑神经突触结构启发,可并行处理信息的数学模型,已广泛应用于生物、电子、经济等领域。训练是建立神经网络最重要的一步,其通过改变神经网络的权重使预期值与实际输出值相符。已有诸多优化算法用于神经网络的训练过程,如梯度下降法、共轭梯度法、拟牛顿法和粒子群优化法等。其中,拟牛顿法以其快速收敛和计算量小的特点广受欢迎。但是,其迭代优化过程在软件平台实现时需要消耗大量求解时间,并且不适宜嵌入式场合。所以需要寻求一种硬件加速的方法提升网络的训练速度。近年来,现场可编程门阵列(FPGA)以其高并行度、设计灵活(相对于ASIC)、能耗低(相对于GPU)和丰富的逻辑资源等特点,被认为是加速设计的有效实现平台。因此本文首次将拟牛顿算法在FPGA上实现,用于加速神经网络的训练过程。本设计通过分析拟牛顿算法,将其划分为梯度计算、矩阵更新、线性搜索和目标函数评估四大模块。每个模块被实现为硬件单元,其架构根据模块中涉及的操作来定制。在每个模块...  (本文共75页) 本文目录 | 阅读全文>>

《南京大学学报(自然科学)》2017年02期
南京大学学报(自然科学)

多样性正则的神经网络训练方法探索

人工神经网络(artificial neural network,ANN)[1],是由人工建立的以有向图为拓扑结构的动态系统,它通过对生物神经网络基本特性的抽象与模拟,完成对连续或断续的输入状态作相应处理,是一类非线性学习模型.由于神经网络的非线性特性,它可以充分逼近任意复杂的非线性关系,在许多任务上具有很好的适应性.近年来人工神经网络引起了人们极大的关注,并在字符识别(Character Recognition)[2-3]和图像压缩(Image Compression)[4-5]取得了很好的效果.此外,在股市预测(Stock Market Prediction)[6]、医学领域[7]、安全领域[8]乃至贷款策略[9]方面,神经网络都有着不同程度的应用.人工神经网络拥有强大的学习能力和自适应性,主要表现为它可以在外界信息的基础上改变内部结构,人工神经网络的内部结构改变即为权重的更新和拓扑结构的调整,本文主要关心权重更新问题.在权...  (本文共10页) 阅读全文>>