hadoop+spark+mongodb+mysql+c# 我会带着你远行 2022-07-14 06:23 116阅读 0赞 # 一、前言 # 从20世纪90年代数字化医院概念提出到至今的20多年时间,数字化医院(Digital Hospital)在国内各大医院飞速的普及推广发展,并取得骄人成绩。不但有数字化医院管理信息系统(HIS)、影像存档和通信系统(PACS)、电子病历系统(EMR)和区域医疗卫生服务(GMIS)等成功实施与普及推广,而且随着日新月异的计算机技术和网络技术的革新,进一步为数字化医院带来新的交互渠道譬如:远程医疗服务,网上挂号预约。 随着IT技术的飞速发展,80%以上的三级医院都相继建立了自己的医院信息系统(HIS)、电子病历系统(EMR)、合理用药系统(PASS)、检验管理系统(LIS)、医学影像存储与共享系统(PACS)以及移动查房、移动护理系统以及与大量的第三方接口整合应用,IT在医疗领域已经进入了一个大数据时代,随着HIS的广泛应用及其功能的不断完善,HIS收集了大量的医疗数据。 进入2012年,大数据及相关的大数据处理技术越来越多地被国人提及,人们也普遍的接受大数据的概念,大数据技术也影响着我们的日常生活,互联网行业已经得到广泛应用,电信、银行等行业也已经在广泛尝试使用大数据技术提供更稳健和优质的服务。 在目前情况下,医疗IT系统收集了这些集其有价值的数据,但是这些大量的有价值的历史医疗数据并没有发挥出其应有的价值,不能为一线临床医生提供医疗诊断辅助,也不能为医院管理和经营决策提供必须的支持。 针对以上现状,思考拟利用医院现有的历史就诊记录、处方、诊断、病历数据,挖掘出有价值的基于统计学的医学规则、知识,并基于这些规则、知识信息构建专业的临床知识库,为一线医务人员提供专业的诊断、处方、用药推荐功能,基于强大的关联推荐能力,极大的提高医疗服务质量,减轻一线医疗人员的工作强度。 # 二、Hadoop&Spark # 目前大数据处理领域的框架有很多。从计算的角度上看,主要有MapReduce框架(属于Hadoop生态系统)和Spark框架。其中Spark是近两年出现的新一代计算框架,基于内存的特性使它在计算效率上大大优于MapReduce框架;从存储角度来看,当前主要还是在用Hadoop生态环境中的HDFS框架。HDFS的一系列特性使得它非常适合大数据环境下的存储。 ## 2.1 Hadoop ## Hadoop不是一个软件,而是一个分布式系统基础架构,是由Apache基金会主持开发的一个开源项目。Hadoop可以使用户在不了解分布式底层实现的情况下,开发分布式程序,从而充分利用电脑集群的威力,实现高速运算和大规模数据存储。Hadoop主要有HDFS、MapReduce、Hbase等子项目组成。 Hadoop是一个能够对大量数据进行分布式处理的软件框架,并且使用可靠、高效、可伸缩的方式进行数据处理。Hadoop假设数据处理和存储会失败,因此系统维护多个工作数据副本,确保能够针对失败的节点重新分布处理。Hadoop通过并行工作,提高数据处理速度。Hadoop能够处理PB级数据,这是常规数据服务器所不能实现的。此外,Hadoop依赖于开源社区,任何问题都可以及时得到解决,这也是Hadoop的一大优势。Hadoop建立在Linux 集群上,因此成本低,并且任何人都可以使用。它主要具有以下优点: 1高可靠性。Hadoop系统中数据默认有三个备份,并且Hadoop有系统的数据检查维护机制,因而提供了高可靠性的数据存储。 2扩展性强。Hadoop在普通PC服务器集群上分配数据,通过并行运算完成计算任务,可以很方便的为集群扩展更多的节点。 3高效性。Hadoop能够在集群的不同节点之间动态的转移数据。并且保证各个节点的动态平衡,因此处理速度非常快。 4高容错性。Hadoop能够保存数据的多个副本,这样就能够保证失败时,数据能够重新分配。 Hadoop总体架构如下图所示,Hadoop架构中核心的是MapReduce和HDFS两大组件。 [![wps44A5.tmp][]][wps44A5.tmp 1] Google曾发表论文《Google File System》,系统阐述了Google的分布式文件系统的设计实现,Apache针对GFS,进行开源开发,发布了Hadoop的分布式文件系统:Hadoop Distributed File System,缩写为HDFS。MapReduce的核心思想也由Google的一篇论文《MapReduce:Simplified Data Processing on Large Clusters》 提出,筒单解释MapReduce的核心思想就是:任务分解执行,执行结果汇总。 ## 2.2 Spark ## Spark是UC Berkeley大学AMP实验室开源的类似MapReduce的计算框架,它是一个基于内存的集群计算系统,最初的目标是解决MapReduce磁盘读写的开销问题,当前最新的版本是1.5.0。Spark—经推出,就以它的高性能和易用性吸引着很多大数据研究人员,在众多爱好者的努力下,Spark逐渐形成了自己的生态系统( Spark为基础,上层包括Spark SQL,MLib,Spark Streaming和GraphX),并成为Apache的顶级项目。 Spark的核心概念是弹性分布式存储(Resilient Distributed Datasets, RDD)间,它是Spark对分布式内存进行的抽象,使用者可以像操作本地数据集一样操作RDD,从而可以将精力集中于业务处理。在Spark程序中,数据的操作都是基于RDD的,例如经典的WordCount程序,其在Spark编程模型下的操作方式如下图所示: [![wps5863.tmp][]][wps5863.tmp 1] 可以看到Spark先从文件系统抽象出RDD1,然后由RDD1经过flatMap算子转换得到RDD2,RDD2再经过reduceByKey算子得到RDD3,最后RDD3中的数据重新写回文件系统,一切操作都是基于RDD的。 # 三、思路和架构 # 经过多方面的思考,最终决定基于Spark技术进行构建和实现医院临床知识库系统,采用MongoDB/Sequoiadb构建大数据仓库,做为大数据的存储中心,采用Hadoop+Spark1构建大数据分析平台,基于AgileEAS.NET SOA中间件构建ETL数据抽取转换工具(后期部分换用了Pentaho Kettle),基于AgileEAS.NET SOA中间件构建知识库的服务门户,通过WCF/WebService与HIS系统进行业务整合集成,使用AgileEAS.NET SOA+FineUI构建基础字典管理以后分析结构的图像化展示功能。 最初我们选择了[*SequoiaDB*][SequoiaDB]做为大数据存储中心,为此我还特意的为[*SequoiaDB*][SequoiaDB]完成了C\#驱动,参考[本人为巨杉数据库(开源NoSQL)写的C\#驱动,支持Linq,全部开源,已提交github][NoSQL_C_Linq_github]一文,但是一方面熟悉[*SequoiaDB*][SequoiaDB]的技术人员太少了,维护是个问题,最后,在差不多8多个月这后我们换用了MongoDB 3.0做为大数据存储中心。 最初我们选择了hadoop2.0+spark1.3.1版本之上使用scala2.10开发完成了医院临床知识库系统,请参考[centos+scala2.11.4+hadoop2.3+spark1.3.1环境搭建][centos_scala2.11.4_hadoop2.3_spark1.3.1],但是在后期替换Sequoiadb为MongoDB的同时,我们把计算框架也由hadoop2.0+spark1.3.1升级到了hadoop2.6+spark1.6.2。 考虑到spark都部署在Linux的情况,对于spark分析的结果输出存储在Mysql5.6数据库之中,系统所使用的各种字典信息也存储在Mysql之中。 spark数据分析部分的代码使用IntelliJ IDEA 14.1.4工具进行编写,其他部分的代码使用VS2010进行编写。 ## 3.1 总体架构 ## [![image][]][image 1] 整个系统由数据采集层、存储分析层和应用逻辑层三大部分以及本系统所选所以来的外部数据源。 本系统的外部数据源目前主要是医院信息系统所产生的临床数据,目前主要集中在HIS系统之中,后期将采依赖于EMR、LIS、PACS系统。 数据采集层主要负责从临床业务系统采集海量历史临床数据同,历史记录采集方式分为批采集和实时采集,在数据采集过程之中对原始数据进行格工检查,并对原始数据进行清洗和转换,并将处理后的数据存储在大数据仓库之中。 存储分析层主要负责数据存储以及数据分析两大部分业务,经过清洗转换的合理有效数据被存储在大数据集群之中,使用JSON格式,大数据存储引用使用SequoiaDB数据库,数据分析部分由Hadoop/Spark集群来完成,大数据存储经由Spark导入并进行分析,分析结果写入临床知识数据库,临床知识数据库使用MySql数据库进行存储。 应用逻辑层主要负责人机交互以及分析结构回馈临床系统的渠道,通过WebUI的方式向临床医生、业务管理人员提供列表式、图像化的知识展示,也为临床系统的业务辅助、推荐功能提供调用的集成API,目前API主要通过WebService、WebAPI两种方式提供。 ## 3.2 总体流程 ## [![image][image 2]][image_image 2] 整个系统经由数据源数据采集,写入大数据存储SequoiaDB集群,然后由Spark进行分析计算,分析生成的临床知识写入MySQL知识库,经由WebUI以及标准的API交由临床使用。 ## 3.3 数据导入流程 ## [![image][image 3]][image_image 3] 历史数据的采集导入使用初期使用AgileEAS.NET SOA 的计划任务配何C\#脚本进行实现,由计划任务进行协调定时执行,具体的数据导入代码根据不同的临床业务系统不同进行脚本代码的调整,也可以使用Pentaho Kettle进行实现,通过Pentaho Kettle可配置的实现数据的导入。 ## 3.4 物理结构设计 ## [![image][image 4]][image_image 4] 临床数据源为本系统进行分析的数据来源,源自于临床HIS、EMR,目前医院的HIS使用SQL Server 2008 R2数据库,EMR使用ORACLE 11G数据库,运行于Windows2008操作系统之上。 SequoiaDB集群为大数据存储数制库集群,目前使用SequoiaDB v2.0,运行于Centos6.5操作系统之上,根据业务来规模使用2-16节点集群,其用于存储经过清洗转换处理的海量历史临床数据,供Spark集群进行分析,以及供应SOA服务器进行历史数据查询和历史相关推荐使用。 Hadoop/Spark集群为本系统的分析计算核心节点,用于对SequoiaDB集群之中的历史数据进行分析,生成辅助临床医生使用的医学知识,本集群根据业务来规模使用2-16节点集群,使用Centos6.5操作系统,安装JAVA1.7.79运行环境、scala2.11.4语言,使用Hadoop2.3,spark1.3.1分析框架。 MySql知识库为本系统的知识库存储数据库,Hadoop/Spark集群所生产的分析结构写入本数据库,经由SOA服务器和Web服务处理供临床系统集成使用和WebGUI展现,目前使用MySQL5.6版本,安装于Windows2008/Centos6操作系统之上。 SOA Server为本系统的对外接口应用服务器,向临床业务系统和Web Server提供业务运算逻辑,以及向临床业务系统提供服务API,目前运行于Windows2008操作系统,部署有.NET Framework 4.0环境,运行AgileEAS.NET SOA 中间件的SOA服务,由AgileEAS.NET SOA 中间件SOA服务向外部系统提供标准的WebService以及WebAPI。 Web Server为系统提供基于标准的B/S浏览器用户接口,供业务人员通过B/S网页对系统进行管理,查询使用知识库之中的医学知识,目前运行于Windows2008操作系统,部署有.NET Framework 4.0环境,运行于IIS7.0之中。 临床工作站系统运行HIS、EMR系统,两系统均使用C\#语言SOA架构思路进行开发,与本系统集成改造后,使用标准WebService接口本系统,使用本系统所提供的API为临床提供诊疗辅助。 # 四、环境、安装、坑 # 目前系统跑在虚拟化环境之中,其中三台Centos6组成大数据存储、计算集群,每台分配16CPU(核)16G内存2T硬盘,3台共48核48G,这三台机器每台都安装了java1.8.25+scala2.10+hadoop2.6,spark1.62,mongodb3.0组合3节点的集群,spark采用Standalone Cluster模式,单一master节点,为每台机器分配其中12核12G用于Worker,其余CPU内存留给mongodb集群使用,运行截图如下: [![psb][]][psb 1] 一台Win2008做为SOA|应用服务器,分配32核64G内存,部署了Mysql5.6,IIS,AgileEAS.NET SOA 服务,整个系统的SOA服务和Web管理界面由本服务器进行承载,一方面提供Web方式的管理和查询,另一方面以webservice、webAPI为临床系统提供服务。 具体环境的安装过程由于篇幅的原因在此就不在一一细说,我将会单独写一篇文章为大家进行详细的介绍。 第一次使用Spark,又没有多少资料可参考,所以在开发过程之中遇到不少的坑,特别是初期的时间,搭建环境就费了一周,写代码过程之中坑也是一直发现一直填坑,有点坑也填不了,直好换思路绕了,记得在spark sql的udf自定义函数上,并不是所有函数都有坑,偶尔自己写的udf函数怎么都是过不去,找不到原因,看spark的源代码也没看出个所以然,最后不得改写代码,换思路搞。 感觉特别有爱的就是scala语言了,我觉得使用.net 4.0(C\#)的朋友们,特别是用熟Linq的兄弟们,scala语言太方便了,我感觉他基本上就是和linq一样方便,更没有节操的是,在函数之中可以定义类,不过,真的是很方便,我不是很喜欢java,但是我喜欢scala。 # 五、效果展示 # ## 5.1 门诊诊断排名 ## [![image][image 5]][image_image 5] 门诊诊断排名是门诊诊断知识的图形化界面展示显示,用于展示全院或者指定专科的TopN位常用诊断,也为每一个诊断与性别、年龄等人群相关性以及与节气相关性图表展示。 ## 5.2 门诊伴生诊断查询 ## [![image][image 6]][image_image 6] 门诊伴生诊断排名是门诊诊断并发症的知识展示界面,用于展示得某一种疾病另其他疾病的可能性。 ## 5.3 **门诊自动组方查询** ## [![image][image 7]][image_image 7] 门诊自动组方查询,用于展示临床最常用的用药、治疗自动组方知识,即比如最常用的0.9%氯化钠注射液 100 ml配注射用头孢硫咪 1g,常适用于扁桃体发炎、喘息性之气管炎、上呼吸道感染等疾病,给以静脉点滴方式每日一次使用。 ## 5.4 门诊诊断组方推断 ## [![image][image 8]][image_image 8] 门诊诊断组方推断,用于展示临床疾病诊断与常用药品、治疗给合方案的相关性关联,即如上图展示上呼吸道感染常使用氨酚麻美干混悬剂1包、四季抗病毒合剂、0.9%氯化钠注射液100ml+注射用头孢硫咪1g、灭菌注射用水2ml+注射用重组人干扰素a1b 10ug等这样的组合治疗方案。 ## 5.5 医疗临床系统整合 ## 为了实现来源于临床系统,并且服务于临床系统的总体系统,我们联动了本院的HIS系统之中的门诊医生站,与本系统进行基于WebService的整合,如下图所示的整合界面: [![image][image 9]][image_image 9] 临床医生在完成基本的门诊病历之后,系统会自动为其体检待选的门诊疾病诊断,80%-90%的情况可以直接选择,在少数情况下没有推荐合适的时候大夫才会录入,省去大夫录入诊断的麻烦,也减少因大夫录入的不规范而导致的数据的混乱。 [![图片1][1]][1_1] 在临床医生写完门诊病历,进行开立检验、检查、用药、治疗的时间,系统会根据当有的诊断信息进行推荐合适的治疗方案选择,临床医生只需求在右边的推荐组方上双击即可实现快速的处方开方,大大的方便的临床医生的工作。 针对中医院,系统集成了3W多个经典成方,根据历史数据与成方字典的组合分析对比,极大的方便中医大夫日常工作: [![image][image 10]][image_image 10] [![image][image 11]][image_image 11] # 六、实现细节、后续文章 # 对于大数据技术,以及大数据技术在医疗化信息行业的实践,以及实现之中的思路和细节,不是短短的这么一点篇幅就能介绍完成的,此文也是在我们实现需求,实践之后所写,所以总觉得东西都比较简单,我只期望本文能达到抛转引用的作用,能对同行做相关工作的朋友们有所参考,思路可以得到借鉴,然本文也实在没有讲清楚所有的细节。 在接下来,我们专门写一篇与本文使用的技术环境相匹配的一篇环境搭建、配置细节的文章,还请期待。 有做相关业务的朋友可以联系我,进行相关的探讨。 QQ:47920381 邮件:mail.james@qq.com, 电话:18629261335。 [wps44A5.tmp]: /images/20220714/ddf0ee63a2e04afd9927ba8e6f9c013e.png [wps44A5.tmp 1]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010056355-1849803354.jpg [wps5863.tmp]: /images/20220714/1c43377151454e6d975f3ac1e670e5ea.png [wps5863.tmp 1]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010108511-1998080734.jpg [SequoiaDB]: https://www.baidu.com/link?url=TFHwDehtJw2MYSS7gKBPyQ62inr1Lh7bIiunITHUjYk7yfUbPT386qTb-NtVB63x&wd=&eqid=f58e79a7000691e30000000457b9c533 [NoSQL_C_Linq_github]: http://www.cnblogs.com/eastjade/p/4654515.html [centos_scala2.11.4_hadoop2.3_spark1.3.1]: http://www.cnblogs.com/eastjade/p/4777974.html [image]: /images/20220714/7d841d0106d54cdfa36346335529cef6.png [image 1]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010115542-724872847.png [image 2]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010118995-1698024647.png [image_image 2]: /images/20220714/fe2c89f127734c1fa482ab1bb82dedb1.png [image 3]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010121120-1148713919.png [image_image 3]: /images/20220714/df41cb5260674a7aa044c3f1b5fc7676.png [image 4]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010127761-1909209010.png [image_image 4]: /images/20220714/bbe462671e8c46358b458226a96cb5e9.png [psb]: /images/20220714/7fae51dfb21e46f9a50e1a8d5ff83737.png [psb 1]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010134245-1596944065.jpg [image 5]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010139339-1523352392.png [image_image 5]: /images/20220714/38deb8bf490f4e9c939437036a22ab3a.png [image 6]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010142589-1963602860.png [image_image 6]: /images/20220714/44204c72023b40cbbc12483aa8a2870a.png [image 7]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010145901-1800935095.png [image_image 7]: /images/20220714/608211f26d4540ebb7f5221170e21c88.png [image 8]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010149495-759636586.png [image_image 8]: /images/20220714/aa4ebe21f8ee480db4d3426a03bf261a.png [image 9]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010152214-1724705651.png [image_image 9]: /images/20220714/52ff91852ee44dba88ada4ffdd0e86e1.png [1]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010154948-33232588.png [1_1]: /images/20220714/26b8640327e34d6ca00b5cd1910abb34.png [image 10]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010157495-1525795238.png [image_image 10]: /images/20220714/4bd0e1996cc644f980721a08fbcd4def.png [image 11]: http://images2015.cnblogs.com/blog/19020/201608/19020-20160822010159839-1269710019.png [image_image 11]: /images/20220714/5477ce0a2cbc450ab45574d2a9eb5f77.png
还没有评论,来说两句吧...