目录
1.操作环境:
虚拟机VMware版本:15.5
MacOS版本:MacOS_Monterey_12.5_21G72
宿主机:Windows 10 22H2
2.问题和处理:
问题1:如何调节VMware中 MacOS 系统里的字体
问题2:如何改善虚拟机中MacOS系统卡顿 3.相关链接
4.参考文献
1.操作环境:
虚拟机VMware版本:15.5
MacOS版本:MacOS_Monterey_12.5_21G72
宿主机:Windows 10 22H2 2.问题和处理: 问题1:如何调节VMware中 MacOS 系统里的字体 处理方式:
关闭虚拟机->编辑虚拟机设置->显示器->加速3D图形/将主机设置用于监视器(都勾选上)->点击确定
问题2:如何改善虚拟机中MacOS系统卡顿 处理方式:
步骤1:打开虚拟机->系统偏好设置->辅助功能->减少透明度
步骤2:打开虚拟机->系统偏好设置->程序坞与菜单栏->最小化窗口时使用->缩放效果
步骤3:打开虚拟机->系统偏好设置->扩展->将不使用的组件置空
步骤4:将beamoff设置为开机自动运行
4.1下载beamoff,下载链接:http://files.cnblogs.com/files/yipu/beamoff.zip 注:(1)如果虚拟机系统已经安装好了VMware Tools并开启了控制权限,可以将windows桌面上的beam.zip文件跨屏幕直接拖进Mac虚拟机。
VMware Tools下载链接:https://pan.baidu.com/s/1y0HOZ0IAVv4XcvrXtAY0Pw 提取码:5kh3
VMware Tools安装参考链接:https://blog.csdn.net/zalman123456/article/details/131170417?spm=1001.2014.3001.5502
(2)虚拟机系统没有安装VMware Tools,可以在虚拟机里安装微信/印象笔记,将deamoff下载链接发送到虚拟机里,直接下载beamoff.zip文件,MacOS系统会自动解压得到beamoff.app。
4.2打开虚拟机->系统偏好设置->用户与群组->管理员户名->登录项->点按锁按钮以进行更改-> + -> 找到你下载的beamoff.app文件 -> 添加
3.相关链接: beamoff下载链接:http://files.cnblogs.com/files/yipu/beamoff.zip VMware Tools下载链接:https://pan.baidu.com/s/1y0HOZ0IAVv4XcvrXtAY0Pw 提取码:5kh3
VMware Tools安装参考链接:https://blog.csdn.net/zalman123456/article/details/131170417?spm=1001.2014.3001.5502
4.参考文献: https://blog.csdn.net/qq_42095701/article/details/115008088
1. 人工智能的定义是什么? 答案:人工智能(Artificial Intelligence,简称AI)是一种模拟人类智能的技术和科学。它涉及到各种领域,包括机器学习、自然语言处理、计算机视觉、语音识别、决策树等。人工智能的目标是让计算机具备类似于人类的智能,能够自主地思考、学习、推理和决策。人工智能的应用范围非常广泛,包括智能家居、自动驾驶、医疗诊断、金融风控、智能客服等。人工智能技术的发展对于推动社会经济的发展和人类生活的改善具有重要的意义。
2. 什么是机器学习? 答案:机器学习是一种人工智能的分支,它是指计算机系统通过学习和训练数据,从而能够自动地完成某些任务或提高某些性能的能力。简单来说,机器学习就是让计算机根据已有的数据和经验,自动地学习和提高自身的能力,而无需明确地编写指令。机器学习的主要目的是让计算机能够自主地进行决策和预测,从而实现自主学习和自主决策的能力。机器学习在各个领域都有广泛的应用,例如自然语言处理、计算机视觉、语音识别、推荐系统、金融风控、医疗诊断等。
3. 什么是神经网络? 答案:神经网络是一种模拟人类神经系统的计算模型,它模拟了人脑中神经元之间的相互作用和信息传递过程。神经网络可以通过训练和学习不断提高自身的准确性和精度,从而实现各种复杂的任务,例如图像识别、语音识别、自然语言处理等。神经网络模型由多个神经元组成,每个神经元接收多个输入信号,然后通过激活函数对这些输入信号进行加权求和,最终输出一个结果。神经网络的训练过程通常是通过反向传播算法来实现的,它可以自动地调整神经元之间的连接权重,从而使神经网络能够更加准确地进行预测和分类。神经网络在人工智能领域具有广泛的应用,是深度学习的基础。
4. 什么是深度学习? 答案:深度学习是一种机器学习的方法,它模拟了人类神经系统的结构和功能,利用多层神经网络来学习和提取数据的特征,从而实现各种智能化的任务,例如图像识别、语音识别、自然语言处理等。与传统机器学习方法相比,深度学习具有更强的自适应能力和泛化能力,可以自动地从大量的数据中学习和发现规律,从而实现更加准确和高效的预测和分类。深度学习的核心是神经网络,通过多层神经元之间的连接和权重调整,可以实现对数据特征的高效提取和学习。深度学习已经在图像识别、语音识别、自然语言处理、智能推荐等领域取得了广泛的应用,是人工智能领域的重要研究方向之一。
5. 什么是强化学习? 答案:强化学习是机器学习中的一种重要方法,它是通过智能体与环境的交互来学习如何做出最优决策的过程。在强化学习中,智能体通过观察环境的状态,执行某些动作,然后根据环境的反馈(奖励或惩罚)来调整自己的策略,从而实现对环境的最优控制。强化学习的核心是基于奖励信号的学习,即智能体通过尝试不同的动作,来最大化预期的奖励信号。强化学习在许多领域都有广泛的应用,例如游戏、机器人控制、自然语言处理等。强化学习的主要优点是可以在未知环境下进行学习,并且可以实现自主决策和控制,具有很强的实时性和适应性。
6. 什么是自然语言处理? 答案:自然语言处理(Natural Language Processing,简称NLP)是一种人工智能技术,旨在让计算机能够理解、处理和生成自然语言,使得计算机能够像人类一样理解和使用语言。自然语言处理涉及到语言学、计算机科学、数学和统计学等多个领域,其主要任务包括文本分类、信息抽取、文本生成、机器翻译、语音识别等。自然语言处理技术的应用非常广泛,如智能客服、智能翻译、智能搜索、智能写作等。自然语言处理技术的发展对于人工智能的进一步发展和应用具有重要意义。
7. 什么是计算机视觉? 答案:计算机视觉(Computer Vision)是一种人工智能技术,旨在让计算机能够像人类一样“看到”和理解图像或视频。计算机视觉涉及到图像处理、模式识别、机器学习等多个领域,其主要任务包括图像分类、目标检测、图像分割、人脸识别、行为分析等。计算机视觉技术的应用非常广泛,如自动驾驶、智能安防、医疗影像诊断、虚拟现实等。计算机视觉技术的发展对于人工智能的进一步发展和应用具有重要意义。
8. 什么是数据挖掘? 答案:数据挖掘是一种从大量数据中提取有用信息和知识的过程。它是一种多学科领域,涉及统计学、机器学习、数据库技术、数据可视化等多个领域。数据挖掘的目标是发现数据中的模式、规律和趋势,以便更好地理解数据、做出预测和决策。数据挖掘技术可以应用于各种领域,包括商业、金融、医疗、社交网络等。数据挖掘的主要任务包括分类、聚类、关联规则挖掘、异常检测等。数据挖掘技术的发展和应用对于帮助人们更好地理解和利用海量数据,提高决策的准确性和效率具有重要意义。
9. 什么是推荐系统? 答案:推荐系统是一种信息过滤系统,它可以根据用户的历史行为、兴趣和偏好,向用户推荐他们可能感兴趣的物品或服务。推荐系统主要应用于电子商务、社交网络、新闻媒体、音乐和视频等领域。推荐系统的核心是算法模型,它可以分析用户的历史行为数据,如购买记录、点击记录、评分记录等,然后根据这些数据预测用户的兴趣和偏好,最终向用户推荐最相关的物品或服务。推荐系统可以帮助用户发现新的产品和服务,提高用户的满意度和忠诚度,同时也可以帮助企业提高销售额和客户满意度。
10. 什么是神经语言模型? 答案:神经语言模型是一种基于神经网络的自然语言处理技术,它可以用来预测一段文本序列中下一个单词或字符的概率分布。神经语言模型通常采用递归神经网络或卷积神经网络等深度学习模型,通过学习大量的语言数据,自动学习语言的规律和模式,并能够生成符合语法和语义规则的自然语言文本。神经语言模型在机器翻译、语音识别、文本自动生成等领域有着广泛的应用。最近几年,随着深度学习技术的不断发展,神经语言模型在自然语言处理领域的应用也越来越广泛。
11. 什么是卷积神经网络? 答案:卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,主要应用于图像和视频等二维数据的处理。它的主要特点是通过卷积操作来提取图像的特征,然后通过池化操作来减小特征图的大小,最后通过全连接层来进行分类或回归等任务。卷积神经网络的卷积层和池化层可以多层堆叠,从而增加网络的深度,提高网络的表达能力和性能。卷积神经网络在计算机视觉领域有着广泛的应用,例如图像分类、目标检测、语义分割等任务。
12. 什么是循环神经网络? 答案:循环神经网络(Recurrent Neural Network,RNN)是一种深度学习模型,主要应用于序列数据的处理,例如语音、文本等。它的主要特点是具有循环结构,可以在处理每个时间步的数据时,将前面时间步的信息传递到当前时间步,从而实现对序列数据的建模。循环神经网络的每个时间步都具有相同的神经网络结构,但是参数是共享的,这样可以减少模型的参数量,提高模型的训练效率和泛化能力。循环神经网络在自然语言处理、语音识别、视频分析等领域有着广泛的应用。
13. 什么是生成对抗网络? 答案:生成对抗网络(Generative Adversarial Networks,GAN)是一种深度学习模型,由生成器和判别器两部分组成,通过两个模型之间的对抗学习来实现对数据分布的建模和生成。生成器模型负责生成与真实数据类似的数据样本,而判别器模型则负责判断生成器生成的数据样本是否与真实数据样本一致。两个模型同时进行训练,生成器模型不断优化生成的数据样本,使其更接近真实数据,而判别器模型不断优化自己的判别能力,使其能够更准确地判断生成器生成的数据样本是否为真实数据样本。通过两个模型之间的对抗学习,生成器模型可以逐渐学习到真实数据分布的特征,从而生成更加逼真的数据样本。生成对抗网络在图像生成、自然语言处理、音频生成等领域有着广泛的应用。
14. 什么是迁移学习? 答案:迁移学习是一种机器学习方法,它将已经学习到的知识或模型迁移到新的任务或领域中,以加速学习过程和提高学习效果。在迁移学习中,通常会使用已经训练好的模型或者预训练的模型作为基础模型,然后针对新的任务或领域进行微调或者重新训练,以适应新的数据分布和任务需求。迁移学习可以有效地解决数据量不足、模型泛化能力差等问题,同时还可以节省训练时间和计算资源。迁移学习在计算机视觉、自然语言处理、语音识别等领域得到了广泛的应用。
15. 什么是模型压缩? 答案:模型压缩是指通过一系列技术手段,对深度神经网络模型进行压缩和简化,以达到减少模型存储空间、加速模型推理速度、降低模型计算复杂度等目的的过程。常见的模型压缩技术包括剪枝(Pruning)、量化(Quantization)、蒸馏(Distillation)等。其中,剪枝是通过删除网络中不必要的连接或者神经元,来减少模型的参数量和计算量;量化是将模型参数从浮点数转换为低精度的整数或者定点数,从而减少模型存储空间和计算量;蒸馏是通过学习一个小模型来近似大模型的行为,从而减少模型存储空间和计算量。模型压缩技术在深度学习应用中得到了广泛的应用,可以在不降低模型性能的前提下,提高模型的效率和可用性。
16. 什么是模型蒸馏? 答案:模型蒸馏(Model Distillation)是指将一个复杂的模型(教师模型)的知识转移给一个简单的模型(学生模型)的过程。在这个过程中,教师模型的预测结果被用作学生模型的训练目标,以帮助学生模型学习到更好的表示。模型蒸馏通常用于深度学习中,特别是在计算资源有限的情况下。通过模型蒸馏,可以将一个复杂的模型的性能转移到一个简单的模型上,从而提高模型的效率和速度。模型蒸馏可以通过多种方式实现,例如基于温度的蒸馏、基于注意力的蒸馏、基于特征的蒸馏等。模型蒸馏是一种非常有用的技术,可以帮助深度学习模型在计算资源受限的情况下实现高效的预测。
17. 什么是模型集成? 答案:模型集成(Model Ensemble)是指将多个模型组合在一起,以产生更准确、更稳定的预测结果的技术。模型集成通常用于机器学习中,特别是在分类和回归任务中。模型集成可以通过多种方式实现,例如投票、平均、加权平均、堆叠等。在投票方法中,多个模型对同一样本进行预测,然后根据多数投票的结果来确定最终的预测结果。在平均方法中,多个模型的预测结果被简单地平均。在加权平均方法中,每个模型的预测结果被分配一个权重,然后加权平均以得到最终预测结果。在堆叠方法中,多个模型的预测结果被用作输入来训练一个元模型,该元模型可以产生更准确的预测结果。模型集成可以提高模型的性能和稳定性,减少过拟合和欠拟合的风险,从而在实际应用中具有广泛的应用。
18. 什么是半监督学习? 答案:半监督学习是一种机器学习技术,它结合了有监督学习和无监督学习的特点。在半监督学习中,算法使用有标记的和未标记的数据来训练模型。由于有标记的数据通常比未标记的数据少得多,因此半监督学习可以在相对较少的标记数据的情况下提高模型的性能。半监督学习通常用于分类、聚类和降维等任务中。在半监督学习中,算法会使用有标记的数据来学习模型的参数,并使用未标记的数据来发现数据中的模式和结构。通常,未标记的数据可以通过无监督学习技术进行处理,例如聚类或降维。半监督学习是一种灵活的技术,可以在许多实际问题中应用。
19. 什么是无监督学习? 答案:无监督学习是一种机器学习技术,它可以从未标记的数据中发现隐藏的结构和模式,而不需要任何标记数据的帮助。这种技术通常用于聚类、降维和异常检测等任务。在无监督学习中,算法会自动识别数据中的模式和规律,并生成一个模型,该模型可以用于预测新的数据。与有监督学习不同,无监督学习不需要事先知道数据的类别或标签,因此它适用于许多实际问题,如图像和语音处理,以及自然语言处理等。
博主介绍:✌全网粉丝30W+,csdn特邀作者、博客专家、CSDN新星计划导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌
🍅文末获取源码联系🍅
👇🏻 精彩专栏推荐订阅👇🏻 不然下次找不到哟
java项目精品实战案例《100套》
Java微信小程序项目实战《100套》
目录
一、摘要介绍:
二、研究设计内容: 三、系统设计:
3.1 系统研究方案
3.2 功能结构设计:
3.3 摄影作品时序图:
四、系统功能实现截图: 4.1 登录注册:
4.2 系统首页:
4.3 摄影圈信息:
4.4 摄影作品详情:
4.5 系统公告管理:
4.6 个人中心信息:
4.7 后台数据维护:
五、部分代码
六、项目总结: 七、部分作品参考
八、源码获取:
一、摘要介绍: 伴随着信息科技在经营里的深层次和广泛运用,信息化管理系统的实行从技术上日趋成熟。文中介绍了摄影分享网站整个研发流程。通过对比摄影分享网站方法的缺陷,创立了电脑管理摄影分享网站解决方案。文中介绍了摄影分享网站的系统剖析一部分,包含可行性研究,系统设计方案一部分关键介绍了系统功能分析和概念模型设计。
本摄影分享网站人员具备用户中心、用户信息管理、摄影作品管理、摄影圈、系统体系等作用。用户可注册帐号,搜集、喜爱和留言摄影著作,在摄影圈发布消息,公布摄影著作,我的收藏等。因而,它具有一定的应用性。
本网站为B/S方式系统,选用Spring Boot架构,MySQL数据库设计设计和开发,充分保证了系统的稳定。该系统具备页面清楚、使用方便、功能完善的特征,使摄影分享网站方法系统化、规范化。该系统的应用使管理人员可以解决繁琐的工作,完成无纸化,有效提升摄影分享网站的管理效益。
二、研究设计内容: 摄影分享网站交易选用B/S架构模式,即网页页面和网站架构设计的开发方式。这类系统构造可以理解为对 C/S 系统构造的改变与推广能够进行信息分布式处理,减少资源成本,提升订制系统的性能。在这种设计下,极少有事务处理在前进行,绝大多数重要事务管理的思路需要在服务端完成、如图所示。
三、系统设计: 3.1 系统研究方案 软件系统结构计划方案:因为系统务必在不同设备上运行,计算机服务器配置要求越小越好。要实现这一要求,B/S结构已经成为最好的选择。运用B/S结构的系统基本可以在大多数计算机中运行。只需计算机电脑浏览器可以正常运行,系统就能正常的运行,维护费用和二次修改比较容易符合要求。操作过程系统方案:Windows10操作过程系统是微软发布最新发布的系统。目前市面上绝大部分计算机都使用这种系统,功能齐全,兼容模式好。开发工具:挑选IDEA。Java语言研发设计。
3.2 功能结构设计: 3.3 摄影作品时序图:
3.4 登录模块时序图 四、系统功能实现截图: 4.1 登录注册: 4.2 系统首页: 4.3 摄影圈信息: 4.4 摄影作品详情: 4.5 系统公告管理: 4.
本次项目是实现的一个图书信息管理系统,功能算不上太多,但也比较齐全。
1.1 项目来源及研究背景 随着社会的发展,人们对知识的需求也在不断增长。书籍作为人们获取并增长知识的主要途径,使得书城,书店在人们的生活中占有了一定的位置。但是近几年,随着书量的不断增长,造成了图书挤压,管理不善等等的问题。这就直接影响了图书管理员对书城或者书店图书的管理带来一定的难度。这时就需要开发一套图书管理系统,通过该系统提高书城或者书店的管理效率,从而减少管理方面的工作流程和成本。
1.2 研究目的及意义 本次阶段性作业设计旨在加深对数据库系统,软件工程,程序设计语言的理论知识的理解和应用水平,同时在理论和实验教学基础上进一步巩固已学基本理论及应用知识并加以综合提高,并学会将知识应用于实际的方法,提高分析和解决问题的能力,增强动手能力,为毕业设计和以后工作打下必要的基础。
1.3 研究内容 本次课题主要研究的就是图书管理系统在管理员的使用下所能达到的效果,而图书信息管理系统的研究内容主要包括以下几个方面:
系统架构设计:研究图书信息管理系统的整体架构设计,包括系统的模块划分、数据流程、技术选型等。
数据库设计:研究图书信息管理系统的数据库设计,包括数据表结构、数据关系、数据存储等。
系统功能设计:研究图书信息管理系统的功能设计,包括图书的录入、查询、借阅、归还等功能,以及读者的注册、登录、预约、续借等功能。\
系统性能优化:研究图书信息管理系统的性能优化,包括系统的响应速度、并发处理能力、数据安全性等方面。
1.4 实施计划 图书信息管理系统的实施计划应该包括以下几个方面:
需求分析:对图书馆的管理需求进行分析,确定系统的功能和特点,以及实施的目标和范围。系统设计:根据需求分析的结果,设计系统的架构、模块、界面等,确定系统的技术方案和实现方式。系统开发:根据系统设计的方案,进行系统的编码、测试、调试等工作,确保系统的稳定性和可靠性。系统部署:将开发好的系统部署到图书馆的服务器上,并进行系统的安装、配置、测试等工作,确保系统能够正常运行。培训和推广:对图书馆的工作人员进行系统的培训和指导,使其能够熟练掌握系统的使用方法和技巧,同时进行系统的推广和宣传,提高读者的使用率和满意度。系统维护:对系统进行定期的维护和更新,确保系统的稳定性和安全性,同时对系统的性能和功能进行优化和改进,以满足图书馆的不断发展和变化的需求 2.1 可行性分析 可行性研究的目的是在尽可能短的时间内,消耗尽可能少的资源来判断系统问题是否能够解决。它只能客观地分析问题的存在,给出分析是否该问题值得花费任何的资源去解决。下面从市场上、经济、技术和安全四方面对系统的可行性进行了分析和研究。
2.1.1 市场可行性 现在人们对阅读的积极性不断提升,对图书进行管理起到了重要的作用,该项目可满足人们的阅读需求,所以该系统在市场上具有可行性。
2.1.2 经济可行性 对该图书信息管理系统的开发、部署、维护等成本进行评估,包括硬件、软件、人力等方面,使得在经济上本系统对于运营者与使用者来说都并不具有很大负担,所以本系统在经济上具有可行性。
2.1.3 技术可行性 本系统基于Java、GUI、MySQL等技术开发,这些技术十分成熟且易于使用,并在市面上具有广泛的应用且具有成熟的标准与诸多接口与扩展,在硬件方面,本系统对于服务器硬件的需求并不高,普通的服务器已经远能够满足本系统的需求,所以在技术上本系统具有可行性。
2.1.4 安全可行性 对图书信息管理系统的法律合规性进行评估,具备账号密码登入界面,包括系统的数据安全、隐私保护等方面,确保系统的法律可行性,所以在安全上本系统上具有可行性。
2.2 功能需求 基于实际调研受众人群分析,系统应满足以下的功能:
(1)书库管理功能:管理员可以对书库内所有图书进行管理;
(2)信息查询功能:管理员可以对所需检索的图书进行查询;
(3)图书销售功能:管理员可以对用户所需的图书进行下单处理。
图书信息系统管理员是整个系统的管理员,考虑到系统并不复杂,所以并不对管理员进行更进一步的划分,管理员可以进行的行为有:
1.图书管理员可以对图书信息进行增加,删除,修改,查询等操作。
2.系统有自动结算的功能,输入图书ISBN码,自动回填相关信息,包含价格,折扣等等,输入金额,自动计算找零。
3.图书管理员可以在系统中设置图书的折扣信息,以及标价标准。
4.图书查询,订单查询等等支持根据ISBN码,书名,模糊查询等多种方式。
2.3 非功能性需求 (1)数据的一致性:包括数据的编码和语言、冗余数据、数据库采用第二或第三范式设计、相同数据在不同表中的一致性等,当数据信息发生变更时,能够在多处记录同时修改数据以保证数据的一致性。
(2)系统的安全性:这里的安全性考虑的比较全面,小到如何防止和处理管理员未登录就可进入到主界面或是在输入框输入特殊字符来获得开发者未曾预料的结果,大到如何预防外部黑客对系统的攻击。
(3)人机交互性:包括易操作性和界面的美观性,该图书信息管理系统使用的都是我们生活中习惯使用的操作方式,所以用户可以很容易上手,操作界面的设计考虑到色彩的搭配。
2.4 开发工具及相关技术 (1)IDEA
IDEA是成熟的JAVA开发IDE,具有高度的可扩展性,且被广泛应用于各个领域,IDEA功能强大,且各种贴近使用的快捷方式十分便利于开发。
(2)MySQL
MySQL是一个开源的关系数据库,其服务器快速、可靠,易于使用。同时因为其本身规模较小,易于学生进行开发。且具有大量MySQL软件可供使用。
(3)GUI界面
GUI是Graphical User Interface的缩写,中文翻译为图形用户界面。它是一种通过图形化方式来显示和操作计算机系统的用户界面。与传统的命令行界面相比,GUI更加直观、易用、美观,可以通过鼠标、键盘等多种方式来进行操作。GUI通常包括窗口、菜单、按钮、文本框、图标等元素,可以通过拖拽、点击等方式来进行操作。GUI的出现极大地方便了计算机用户的操作,使得计算机系统更加普及和易用。常见的GUI操作系统包括Windows、macOS、Linux等。
本章主要介绍了图书信息管理系统的需求分析,包括需求分析的概念、目的、方法和步骤,以及需求分析的结果。在需求分析的过程中,我们对图书信息管理系统的功能、性能、界面、安全等方面进行了详细的分析和描述,明确了系统的需求和特点,为后续的系统设计和开发提供了基础和依据。同时,我们还对系统的用户群体、使用场景、需求特点等方面进行了分析,以确保系统能够满足用户的需求和期望。通过本章的学习,我们了解了需求分析的重要性和方法,掌握了需求分析的基本技能和流程,为后续的系统设计和开发打下了坚实的基础。
本章通过需求分析将系统分为五个功能模块,分别为登录模块、书库管理模块、信息查询模块、图书销售模块,系统设计模块,基于需求完成了系统数据库的设计。
3.1 系统总体设计 通过对系统权限的分析,我们将系统分为书库管理模块,销售管理模块,信息查询模块,系统设置模块,数据全览模块共五个模块。
系统总体功能模块图如图3-1所示。
图3-1 系统整体功能模块图
3.2 系统功能模块划分 通过对系统总体的分析,划分了五个功能模块,分别是书库管理模块、销售管理模块、信息查询模块、系统设置模块和数据全览模块。
传染病动态监测系统 背景:
当前社会面临着传染病的严重挑战,特别是近年来新冠肺炎疫情的爆发,更加凸显了传染病监测的必要性和重要性。
传染病是一种可以通过人际接触、空气、食物水源等途径在人与人间传播的疾病。尤其在如今全球化、城市化背景下,传染病的传播速度和范围都得到了极大的加速和扩大。传染病的预防、控制和管理愈加显得重要。而传染病的监测是控制传染病的重要环节。
目的:
1. 监测系统:通过现代科技手段建立起来的监控系统,紧密结合现有医疗体系,及时、准确地监测疾病传播动态,掌握疫情信息和趋势。
2.信息传播:建立起来的信息传播系统能够及时、全面地发布疫情信息,提供前沿的疫情动态。
3.公共卫生体系:监测系统与公共卫生体系建立起连接,促进公共卫生体系的协调发展,先进的监测系统可以借助公共卫生体系推动疾病预防与治理。
4.实现地区数据存储,通过地区映射出传染病的发生和传播的记录,包括地区和名称。
5.实现患者信息存储,包括患者的姓名、年龄、性别、联系方式、地址、登记时间等。
6.实现医院信息存储,包括医院的名称和地址。
7.实现病毒信息存储,病毒的名称、类型、基因型、基因组序列和记录时间等。
通过数据库建立一个传染病监测系统,对传染病的重点人群、重点区域、重点疫情进行监测,分析传染病疫情的发生、传播规律,及时发现或预测传染病的扩散和流行趋势,为卫生部门制定针对性的措施和政策提供参考。
业务逻辑关系:
该系统包含主要业务流程如下:
( 疫情监测:通过各种途径收集各地的疫情信息,记录疫情发生地、时间、人数等信息。
高风险区域监测:每隔一段时间对疫情高发区域进行监测,了解该地区病人数量和病情变化趋势。
重点人群监测:对高风险人群(如医护人员、密切接触者等)进行监测,及时发现病例。
干预措施记录:记录疫情监测中采取的各种干预措施的类型和效果。
数据分析和报告:根据数据库信息分析疫情发展的规律,生成各种图表和报告。 )
数据关系:
在该系统中,主要涉及以下几个实体:
地区 (Region) 实体: 地区ID (RegionID) - 主键,唯一标识地区地区名称 (Name) - 地区的名称.风险监测实体(risk_monitor),疫情高风险区域的信息:(视图查询:查询风险区域,风险区域所在病例数 风险监测ID(主键)风险区域ID(外键,引用地区表)监测人员监测时间监测内容医院(Hospital)实体: 医院ID(HospitalID) - 主键,唯一标识医院医院名字(Name) - 医院的名称地址(Address) - 医院的地址病毒 (Virus) 实体(视图查询:查询同一种病毒发生的传播事件和传播类型,传播事件是否结束,再查看有几个病例) 病毒ID (VirusID) - 主键,唯一标识病毒名称 (Name) - 病毒的名称种类 (Type) - 病毒的种类,如RNA病毒或DNA病毒基因型 (Genotype) - 病毒的基因型基因序列(GenomeSequence)收录时间 (RecordTime) - 病毒记录的时间病例 (Case) 实体 病例ID (CaseID) - 主键,唯一标识病例病毒ID (VirusID) - 外键,指向病毒实体中的对应病毒感染症状(Symptoms)状态 (Status) - 病例的状态,如确诊或疑似发病时间 (OnsetTime) - 病例的发病时间录入时间 (RecordTime) - 病例记录的时间患者ID (PatientID) - 外键,指向患者实体中的对应患者地区ID (RegionID) - 外键,指向地区实体中的对应地区医院ID(HospitalID) - 外键,指向医院实体中的对应医院患者 (Patient) 实体 患者ID (PatientID) - 主键,唯一标识患者姓名 (Name) - 患者的姓名年龄 (Age) - 患者的年龄性别 (Gender) - 患者的性别联系方式 (Contact) - 患者的联系方式地址 (Address) - 患者的地址注册时间 (RegisterTime) - 患者的注册时间传播事件 (TransmissionEvent) 实体 传播事件ID (TransmissionEventID) - 主键,唯一标识传播事件病例ID (CaseID) - 外键,指向病例实体中的对应病例传播类型 (TransmissionType) - 传播类型,如密切接触或聚集感染发生地区ID (OccurrenceRegionID) - 外键,指向地区实体中的对应地区传播地区ID (TransmissionRegionID) - 外键,指向地区实体中的对应地区传播开始时间 (StartTime) - 传播开始的时间事件状态 (EndTime) – 结束(1)或者正在发生(0)传播路径 (TransmissionPath) - 传播路径的描述 实体联系:
文章目录 ⭐️ 赠书 - 《Django Web开发实例精解》⭐️ 内容简介⭐️ 作者简介⭐️ 编辑推荐⭐️ 赠书活动 → 获奖名单 ⭐️ 赠书 - 《Django Web开发实例精解》 ⭐️ 内容简介 《Django Web开发实例精解》详细阐述了与Django相关的基本解决方案,主要包括模型和数据库结构、表单和视图、模板和JavaScript、自定义模板过滤器和标签、模型管理、安全和性能、层次结构、导入和导出数据、测试、部署、维护等内容。此外,本书还提供了相应的示例、代码,以帮助读者进一步理解相关方案的实现过程。
⭐️ 作者简介 爱达斯·班德拉蒂斯在过去的18年里一直从事专业的网站建设。在过去的14年里,他一直在柏林一家名为studio 38 pure communication的设计公司工作。他和一个小的专门团队一起,主要使用Django作为后端,jQuery作为前端来创建文化和旅游web平台。
⭐️ 编辑推荐 Django是一个功能强大的Python Web框架,支持快速开发过程以及简洁、实用的设计方案。Django是高水准的Python编程语言驱动的一个开源模型,是一个视图、控制器风格的Web应用程序框架,它起源于开源社区。使用这种架构,程序员可以方便、快捷地创建高品质、易维护、数据库驱动的应用程序。另外,在Django框架中,还包含许多功能强大的第三方插件,使得Django具有较强的可扩展性。 本次送书 3 本 评论区抽三位小伙伴送书 活动时间:截止到 2023-06-11 20:00:00 抽奖方式:利用网络公开的在线抽奖工具进行抽奖 参与方式:关注、点赞、收藏,评论 "人生苦短,一天当做两天卷!" 点赞最多的1位小伙伴与随机抽取的2位小伙伴将免费获得此书! 小伙伴也可以访问链接进行自主购买哦~ 清华大学出版社 618 大促 京东链接 618活动特惠 -《Django Web 开发实例精解》 ⭐️ 赠书活动 → 获奖名单 名单公布时间: 2023-06-11 21:00:00
1. 摘要: 在这篇文章中,我们将介绍如何从零开始使用Python建立你的第一个人工智能模型。无论你是刚接触编程的新手,还是有经验的开发者想进一步探索人工智能领域,这篇文章都将为你提供清晰、详细的指南。我们将一步步探索数据预处理、模型建立、训练和测试的过程,以及如何解读模型的结果。
2. 引言 Python在人工智能开发中的地位,以及为什么选择Python作为开始学习人工智能编程的语言。
随着科技的不断发展,人工智能(Artificial Intelligence, AI)已经成为了当今最热门的话题之一。AI 的应用领域包括但不限于自动驾驶、医疗诊断、金融预测、智能家居等等。而在这个日新月异的领域中,Python凭借其易学易用的特性和丰富的库支持,已经成为了人工智能开发的首选语言。
Python是一种解释型、面向对象、动态数据类型的高级程序设计语言。它的语法简单明了,代码可读性强,且拥有广泛的标准库和开源库,这些特性使得Python成为了开发者们的宠儿,特别是在数据科学和人工智能领域。
Python在人工智能开发中的地位尤为重要。这主要是由于Python拥有众多针对AI应用的强大的开源库,例如:NumPy和Pandas用于数据处理,Matplotlib用于数据可视化,Sci-kit Learn提供了大量的预处理方法和机器学习算法,TensorFlow和PyTorch则是深度学习领域的重要工具。这些库大大降低了开发难度,使得Python在AI领域的地位无可替代。
同时,Python语言的易学易用也是其受欢迎的重要原因。Python的语法结构简单,让初学者更容易上手,提供了一个友好的学习环境。对于初学者来说,Python是一个非常好的起点。掌握了Python语言,你就打开了通往AI世界的大门。
因此,无论你是刚入门的新手,还是有一定基础的开发者,都可以选择Python作为学习AI的工具。接下来的文章将为你详细展示如何利用Python的强大功能,步入AI的世界。
3. 数据预处理:解释数据预处理的重要性,并演示如何在Python中进行数据清洗和预处理。 在AI和机器学习中,数据预处理是一个非常重要的步骤。可以说,好的数据预处理工作是建立一个高效模型的基础。这是因为AI和机器学习模型的工作原理基于数据驱动,因此数据的质量直接影响模型的性能。干净、整洁和准确的数据可以帮助模型更好地学习和预测,而嘈杂的、缺失的或错误的数据则可能导致模型性能下降。
数据预处理主要包括数据清洗、数据转换和数据规范化。数据清洗主要包括处理缺失值、去除异常值和重复值等;数据转换涉及数据的类型转换、离散化等;数据规范化则包括将数据缩放到一定范围内、进行归一化或标准化等。
在Python中,Pandas和NumPy是常用的数据预处理库。以下是一个简单的数据清洗和预处理示例:
import pandas as pd import numpy as np # 假设我们有一个简单的数据集 data = pd.DataFrame({ 'name': ['John', 'Anna', 'Peter', 'Linda'], 'age': [28, np.nan, 35, 32], 'gender': ['M', 'F', 'M', np.nan] }) # 处理缺失值,这里我们选择用平均值填充年龄,众数填充性别 data['age'].fillna(data['age'].mean(), inplace=True) data['gender'].fillna(data['gender'].mode()[0], inplace=True) # 数据转换,将性别的M和F转为0和1 data['gender'] = data['gender'].map({'M': 0, 'F': 1}) # 数据规范化,将年龄规范到0-1之间 data['age'] = (data['age'] - data['age'].
前端是什么? 前端(Front-End),又称浏览器端、客户端等,是指 Web 应用程序中负责用户交互、界面展示和数据展示的部分。前端技术体系主要包括 HTML、CSS 和 JavaScript 等内容。
其中,HTML(Hypertext Markup Language)是一种标记语言,用来描述网页的结构和内容;CSS(Cascading Style Sheets)是一种样式表语言,用来定义网页的外观和布局;而 JavaScript 是一种脚本语言,用来实现网页的交互和动态效果。
作为用户与 Web 应用程序之间的接口,前端开发需要关注用户体验,并将设计师提供的视觉效果转化为网页的实际展示。前端开发近年来也发生了巨大的变化,出现了许多流行的前端框架和库,如 React、Angular、Vue.js 等,这些工具和技术的出现可以大大提高前端开发的效率和可维护性。
总的来说,在 Web 应用程序中,前端开发通过编写 HTML、CSS 和 JavaScript 等前端代码,构建出用户最终看到的网页界面和交互效果,是 Web 应用程序开发不可或缺的一部分。
前端在我们Web开发中是很重要的一环,今天就来推荐一期前端好书
好书推荐 Vue.js核心解析与uni-app跨平台实战开发
Electron入门与实战
Electron项目开发实战
Flutter2开发实例精解
HTML5+CSS3+JavaScript从入门到精通
HTML5+CSS3从入门到精通
HNext.js实战
Nuxt.js Web开发实战
熬夜送书 第二期 618,清华社 IT BOOK 多得图书活动开始啦!活动时间为 2023 年 6 月 7 日至 6 月 18 日,清华社为您精选多款高分好书,涵盖了 C++、Java、Python、前端、后端、数据库、算法与机器学习等多个 IT 开发领域,适合不同层次的读者。全场 5 折,扫码领券更有优惠哦!快来京东点击链接 IT BOOK 多得(或扫描京东二维码)查看详情吧!
京东链接:点击购买
赠书规则:点赞 | 收藏 | 评论: 人生苦短,熬夜敲Java
【大数据原理与技术】期末习题总结大全,建议收藏 📢📢题目来源于B站,慕课网,百度 ,适用于期末复习,内容仅供参考,祝大家考试顺利!
📢以下思维导图我是根据我们老师敲黑板编写的,内容仅供参考,望周知:
第一章 大数据概述题目练习 第二章 大数据处理架构Hadoop 第三章 分布式文件系统HDFS 第四章 分布式数据库HBase 第五章 NoSQL数据库 第六章 云数据库 第七章 MapReduce MapReduce体系结构主要由四个部分组成,分别是:Client、JobTracker、TaskTracker以及Task
第八章 数据仓库Hive 第十章 Spark Hadoop1.0内核主要由分布式存储系统HDFS和分布式计算框架MapReduce两个系统组成,而Hadoop2.x版本主要新增了资源管理框架Yarn以及其他工作机制的改变。Hadoop自诞生以来,主要分为Hadoop1、Hadoop2、Hadoop3三个系列的多个版本,目前市场上最主流的是Hadoop2.x版本。Hadoop发行版本分为开源社区版和商业版。社区版是指由Apache软件基金会维护的版本,是官方维护的版本体系。
商业版Hadoop是指由第三方商业公司在社区版Hadoop基础上进行了一些修改、整合以及各个服务组件兼容性测试而发行的版本。 选择题 判断题 👏👏👏👏👏完结,祝大家考试顺利!!!
前言 本篇文章仅作为刚开始使用 IntelliJ IDEA 2023.1 创建一个简单的web项目的开发人员,只是作为入门使用 目前很多都是使用spring-boot框架来搭建Java的web项目,但是spring-boot的最新版本目前 不兼容最新的Java20。 这里的创建的项目仅仅是作为初次尝试使用Java来构建web项目的这个简单示例。 如果需要学习使用spring-boot3搭建Java Web项目,请移步:2023 最新版IntelliJ IDEA 2023.1创建Java Web前(vue3)后端(spring-boot3)分离 项目详细步骤(图文详解)
文章目录 前言🧭 版本情况JavaIDEATomcatmaven 🌏 创建步骤🚗 1、依次点击File >> New >> Project🚓 2、选择New Project 输入自己的项目名,选择JDK版本,而后点击create进行创建🚕 3、鼠标右键项目名,后点击 Add Framework Support(添加项目支持)🚕 4、选中Web Application4.0,后点击 OK,点击OK 后会发现项目中多出一个【web】目录🛺5、配置Tomcat服务器(1)依次点击 Edit Configurations... >> Add new... >> Tomcat Serve 下的 Local,而后点击OK 🚙 6、配置Tomcat服务器(2)🚌 7、依次点击页面中的 Deployment >> + >> Artifact... 后点击OK(3)🚜 9、配置Maven,同样在Settings下面,如果不好找,直接在搜索框里面搜索 “Maven”,将红框内的settings.xml文件配置成你自己安装的 apache-maven位置🚎 10、查看自己的Tomcat路径,如果配置不正确的话IDEA会有提示,不正确就重新换成自己的Tomcat的安装路径1、查看方式:File >> settings... >> Applications Servers2、选择自己安装的Tomcat路径 🚐 10、配置完毕后点击运行按钮🚍 10、运行完毕后会自动打开浏览器 最后 🧭 版本情况 安装什么的这里就不说了,都是傻瓜式的安装,但是你需要知道安装的位置,切记!切记!
1.Charles客户端下载:
官网地址:https://www.charlesproxy.com/download/
选择适合自己的系统版本下载
2.下载安装完成后激活
激活网站地址:https://www.zzzmode.com/mytools/charles/
打开安装好的Charles,菜单栏 Help->Register Charles 弹出注册的窗口
填入Registered Name和生成的license key,点击 Register
3.charles客户端头部基本操作目录
4.抓取PC端请求配置
先安装证书并且信任(不抓https可忽略证书)
到钥匙串访问找到Charles Proxy CA证书并且双击信任
不抓取https请求可忽略SSL proxying setting设置
*如果使用的PC端和Charles客户端在同一个电脑上 *,可以通过快速配置代理的方法配置,如下
配置完以上步骤就可以抓取到PC端上的请求了。
如果需要抓包的PC端和Charles客户端非同一电脑,可以通过设置代理的方式实现
macOS电脑 :
系统偏好设置->网络->网页代理(http)->安全网页代理
服务器填写Charles所在电脑的ip地址。
window电脑
同理打开网络设置->设置代理服务器
苹果手机配置(https)
网络设置->设置代理->手动->charles所在电脑ip地址和配置的端口,设置完成之后手机浏览器打开
安装描述文件,手机浏览器打开链接:chls.pro/ssl 安装并且信任
目录
项目展示:(增删改查)环境:Tomcat 8.5
1.数据库结构
1.1 创建数据库(source_db)
1.2 创建数据表(tb_source),结构如下。
2.项目文件结构
3.jar包导入
4.创建JDBC数据库访问类:JDBCutil
5.创建实体类:Source
6.创建数据访问层:SourceDao
7.创建业务逻辑层:SourceService
8.HTTP响应:SourceServlet
9.index.jsp
10.add.jsp
11.update.jsp
12.web.xml
整体项目文件:
项目展示:(增删改查)环境:Tomcat 8.5 1.数据库结构 1.1 创建数据库(source_db) 1.2 创建数据表(tb_source),结构如下。 字段名说明字段类型长度备注id编号int主键,自增,增量为 1name名称varchar50不能为空type类型varchar20不能为空uploadDate上传日期date不能为空 2.项目文件结构 3.jar包导入 下载链接:
https://download.csdn.net/download/kai212/87724319https://download.csdn.net/download/kai212/87724319
4.创建JDBC数据库访问类:JDBCutil package com.ydhl.util; import java.sql.Connection; import java.sql.DriverManager; import java.sql.PreparedStatement; import java.sql.ResultSet; import java.sql.SQLException; public class JDBCutil { private static final String QD = "com.mysql.cj.jdbc.Driver"; private static final String URL = "jdbc:mysql://localhost:3306/source_db?serverTimezone=GMT%2B8"; private static final String USE = "
目录 一、为什么要关闭流?二、close方法和flush方法1.使用close方法2.使用flush方法 三、流按指向分类四、不用关闭的流 一、为什么要关闭流? 涉及到对外部资源的读写操作,包括网络、硬盘等等的I/O流,如果在使用完毕之后不关闭,会导致资源泄漏以及可能会引起文件锁定等问题。因此,需要在使用完毕之后关闭流。
关闭流是一种资源释放机制,意味着在使用完毕之后归还系统的内存、CPU或者网络等资源,避免资源长时间占用。常见的关闭流的方法是调用close()方法,该方法会将相关的资源释放,可以有效避免导致资源泄漏的问题。
需要注意的是,关闭流的时机非常重要,过早关闭可能会影响正常操作,而过晚关闭则可能导致资源泄漏。在实际开发的时候,使用完毕之后应该及时关闭流。在Java 7之后引入了try-with-resources语法,可以在语法层面上自动关闭流,用法是:
/* 读取文件 */ File file = new File("opsLiya.json"); try (FileInputStream fileInputStream = new FileInputStream(file)) { /* 操作 */ }catch (IOException e){ /* 异常处理 */ } 当然也可以使用传统的finally代码块关闭流:
InputStream inputStream = null; try { inputStream = new FileInputStream("opsLiya.txt"); /* 操作 */ } catch (IOException e) { /* 异常处理 */ } finally { if (inputStream != null) { try { inputStream.close(); } catch (IOException e) { /* 异常处理 */ } } } 二、close方法和flush方法 1.
文章目录 一、工具与环境
二、深度学习环境的搭建
三、基于卷积神经网络人脸识别模型的构建与测试
1.核心代码
第一步:采集自己和他人的人脸特征数据,分别对应数据标签0和1
第二步:训练识别人脸特征的模型,并将模型保存为.h5格式的文件
第三步:读取.h5文件格式的人脸识别模型,对摄像头录入的人脸图像进行识别
2.识别的基本原理
3.运行与测试
第一步:采集本人与他人的人脸特征数据(注意需要打开电脑摄像头,否则会报错!)
第二步:进行10轮次的人脸数据模型的训练
第三步:人脸识别与比对测试
四、分析与小结
参考文章
一、工具与环境 Pycharm 2022.1.4conda version : 4.5.4python version : 3.6.5.final.0platform : win-64 二、深度学习环境的搭建 详情见我写的这篇文章的第二部分,这里不再赘述
[深度学习入门案例1]基于Keras的手写数字图像识别https://blog.csdn.net/qq_52487066/article/details/131048466?spm=1001.2014.3001.5501环境搭建好之后,还需要额外下载下面的工具包,依次在Anaconda Prompt 中执行以下命令
conda install py-opencv -i https://pypi.tuna.tsinghua.edu.cn/simple pip install dlib==19.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple pip install face_recognition -i https://pypi.tuna.tsinghua.edu.cn/simple pip install Pillow -i https://pypi.tuna.tsinghua.edu.cn/simple 工具包下载导入完成,下面进行项目的构建与运行 三、基于卷积神经网络人脸识别模型的构建与测试 1.核心代码 第一步:采集自己和他人的人脸特征数据,分别对应数据标签0和1 get_my_face.py import cv2 import dlib import os import random output_dir = './my_crop_faces' size = 160 if not os.
目录 JDK介绍简介版本描述JDK的基本组件 windows系统安装JDK下载安装配置 Linux系统安装JDK下载安装配置 JDK介绍 简介 简介:Java Development Kit (JDK) 是 Sun 公司(已被 Oracle 收购)针对 Java 开发员的软件开发工具包。自从 Java 推出以来,JDK 已经成为使用最广泛的 Java SDK(Software development kit)。
版本描述 学习环境中, 我们通常使用较新版本的JDK, 因为我们要学习部分新特性开发环境中, 我们通常使用老版本的JDK(如:JDK 8), 因为老版本稳定且应用广泛查看官网地址:http://www.oracle.com。
JDK的基本组件 javac:编译器,将源程序转成字节码。jar:打包工具,将相关类文件打包成一个文件。javadoc:文档生成器,从源码注释中提取文档。jdb:debugger,差错工具。 扩展:JDK中还包括完整的JRE(java runtime environment,Java运行环境),也被称为Private Runtime,包含了用于产品环境的各种类库,以及给开发人员使用的补充库,如国际化的库、IDL库。JDK中海包括各种例子程序,用以展示Java API中的各部分。
windows系统安装JDK 下载 官方下载地址:https://www.oracle.com/java/technologies/downloads/archive/
网盘下载地址(私人):https://pan.baidu.com/s/1vnsevOfLb_66fOnLCZ7TDQ?pwd=2715 ,提取码:2715
注:以下是使用官方下载链接的教程,若是使用私人网盘链接下载的JDK直接跳转到安装步骤,则无需观看以下内容。
进入下载页面后,鼠标向下滑,找到Java SE downloads,选择JDK 8版本。
找到Java SE Development Kit XXX,点击Windows x86 Installer后面的下载链接
弹出下载窗口,进行下载即可。
下载之前,需要你先登录Oracle账户,没有的话先创建账户再进行登录,登录成功后,返回下载界面,进行下载操作即可。(注册步骤省略)
下载成功后,得到后缀为.exe的可执行文件,右键以管理员身份运行。
安装 安装过程也很简单,一般直接进行下一步即可。
默认路径也可以,根据自己的需求进行修改。
打开JDK安装路径,查看JDK目录结构
目录说明:
bin:二进制binary的简写,存放的是可执行文件。如:java.exe(Java编译器),java.exe(Java运行工具),jar.exe(打包工具)和javadoc.exe(文档生成工具)。db:该目录是一个小型数据库,在Java中引入了一个开源的数据库管理系统——JavaDB。因此在学习JDBC时无需安装额外的数据库软件,直接使用JavaDB即可。include:由于JDK是通过C和C++实现的,因此在启动时需要引入一些C语言的头文件,该目录就是用于存放这些头文件的。jre:“jre”是“Java Runtime Environment”的缩写,意为“Java运行时环境”。此目录是Java运行时环境的根目录,它包含Java虚拟机,运行时的类包,Java运行启动器以及一个bin目录,但不包含开发环境中的开发工具。lib:是“library”的缩写,意为Java类库和库文件,是开发工具使用的归档包文件。src.zip与javafx-src.zip:放置的是JDK核心类的源代码,通过该文件可以查看Java基础类的源代码 配置 第一步:鼠标右键"电脑"——>“属性”
第二步:点击"高级系统设置"——>“环境变量”
今天我来和大家聊聊通用大模型,垂直领域大模型等整理完了再和大家分享。大家可以先关注一下我,有更新可以立马看见。
本文文末有整理好的通用大模型论文,都是各个大模型的原始论文,强烈建议大模型方向的同学,或者对大模型研究感兴趣的同学阅读。
另外也分享一下我之前盘点过的GPT4平替模型,大家感兴趣的可以点蓝字 看看。
自ChatGPT发布以来,通用大模型就仿佛坐了火箭,短短几个月的时间,各大企业便争相发布自己的大模型,这其实也反应了目前人工智能发展的方向,所以,目前通用大模型的研发已经成为各国新一轮技术竞争的核心领域。
既然都这么火了,那让我们来看看到现在都有哪些通用大模型。
国内: 1.文心一言 网址:文心一言
使用评价:在文学创作上回答的挺全面,数学解答能力有点不太行,代码能力也是一般般。
2.通义千问 网址:通义千问
使用评价:文学创作也很不错,翻译和数学问题回答的也可以,代码能力有待提高。
3.讯飞星火 网址:讯飞星火认知大模型
使用评价:首先它这个审核速度我是满意的,两天就通过可以上手玩耍了,代码解释能力不错,但是写代码还是差点意思。
4.天工 网址:天工官网
使用评价:文学创作能力也在线,数理问题也能做,代码能力整体也是一般。
5.360智脑 网址:360智脑 - 体验平台
使用评价:这个也是申请了好久,刚刚才通过,我都快忘了...简单试用了一下,数理问题复杂点的不太行,代码编程能力还不错。
国外: 1.ChatGPT 网址:https://chat.openai.com/
使用评价:这还需要评价嘛(doge)
2.new bing 网址:必应
使用评价:这么说吧,我现在找论文基本都用它。
3.Claude 网址:Slack is your productivity platform | Slack
使用评价:用Claude需要先注册一个slack号,然后才能使用。流程还是比较简单的,有同学需要注册攻略吗?需要的话在评论区吱一声,我之后整理一下。
偏题了...Claude好处是登录之后就不用再用魔法了,而且用它来辅助阅读论文是真不错~
4.Bard 网址:https://bard.google.com/
使用评价:这个我用的少,用的时候还不支持中文,创造力不如GPT,其他能力还是可以的。
必读论文: 1.word2vec 论文标题:Efficient Estimation of Word Representations in Vector Space
这篇论文在词向量学习和大规模文本表示学习方面做出了以下贡献:
1) 提出两种词向量学习模型架构:word2vec模型
2) 这些模型可以在大规模数据集上快速学习高质量词向量
3) 学习到的词向量在词相似度任务上优于其他方法,达到当时的最先进水平
这篇论文为大规模词向量学习和文本表示学习提供了有价值的参考,为自然语言处理任务奠定了基础。
2.Seq2Seq 论文标题:Sequence to Sequence Learning with Neural Networks
前言 最近下载最新版androidstudio时 发现不能勾选java语言模板了
如果快速点击下一步 新建项目 默认是kotlin语言模板 这可能和google主推kt语言有关
解决方法 勾选1 如图所示 如果勾选 No Activity 这个模板 是可以选java语言模板的
但是里面没有默认的Activity
勾选2 和以前的用法一样 可以勾选java语言模板
也有默认的mainActivity
快来试试吧!~~
4_1某公司过去50个月每月盈亏
绘制该序列的时序图判断该序列的平稳性与纯随机性#平稳非白噪声考察该序列自相关图和偏自相关图的性质利用拟合模型预测该公司未来5年的盈亏情况 q41=ts(E4_1$x) plot(q41)#绘制时序图 #library(aTSA) #adf.test(q41) for(i in 1:2) print(Box.test(q41,lag=6*i))#白噪声检验 #纯随机性检验 p值<0.05,拒绝原假设,属于非白噪声序列 acf(E4_1$x,lag=50)#绘制自相关图 拖尾 #自相关系数除了延迟1-2阶都在2倍标准差范围内波动,该序列具有短期相关性,可认为序列平稳 pacf(q41,lag=50)#绘制偏自相关图 1阶截尾 #偏自相关图除了1阶都在2倍标准差范围内波动 #根据自相关图 拖尾,偏自相关图一阶截尾属性,拟合为AR(1)模型 q41.fit=arima(q41,order=c(1,0,0))#AR(1) q41.fit library(forecast) q41.fore=forecast(q41.fit,h=60) plot(q41.fore) 4_2某城市过去四年每个月人口净流入量
绘制该序列的时序图判断该序列的平稳性与纯随机性#平稳非白噪声考察该序列自相关图和偏自相关图的性质选择适当模型拟合该序列的发展利用拟合模型预测该城市未来5年的人净流入情况 q42=ts(E4_2$x) plot(q42)#绘制时序图 #library(aTSA) #adf.test(q42) Box.test(q42,lag=6)#白噪声检验 #纯随机性检验 p值<0.1,属于非白噪声序列 acf(q42)#自相关图 1阶截尾 #自相关系数除了延迟1阶都在2倍标准差范围内波动,该序列具有短期相关性,序列平稳 pacf(q42)#偏自相关图 拖尾 #根据自相关图1阶截尾,偏自相关图拖尾的属性,拟合为MA(1)模型 q42.fit1=arima(q42,order=c(0,0,1))#MA(1) q42.fit1 q42.fore=forecast(q42.fit1,h=60) plot(q42.fore)#5年预测值 q42.fore #模型显著性检验 for(i in 1:2) print(Box.test(q42.fit1$residual,lag=6*i)) #由于各阶延迟下的LB统计量的P值都显著大于0.05,可认为这个拟合模型的残差序列属于白噪声序列,即该拟合模型显著有效 #参数的显著性检验 t1=0.5683/0.1036 pt(t1,df=56,lower.tail = F)#ma1显著性检验,P<0.05,显著非0 t2=3.4313/0.2032 pt(t2,df=56,lower.tail = T)#常数显著性检验,P>0.05,不显著非0 #检验结果显示常数显著性检验未通过,故不选择该模型 library(forecast) q42.fit2=auto.arima(q42)#自动选择模型 q42.fit2 for(i in 1:2) print(Box.test(q42.fit2$residual,lag=6*i)) #由于各阶延迟下的LB统计量的P值都显著大于0.05,可认为这个拟合模型的残差序列属于白噪声序列,即该拟合模型显著有效 #预测 q42.
文章目录 1. 二分查找思想2. 代码实现2.1 未封装函数2.2 封装函数(使用while循环)2.3 封装函数(使用递归) 1. 二分查找思想 二分法:二分查找算法是一种在有序数组中查找某一特定元素的搜索算法,其思想就是不断地将有序查找表“一分为二”,逐渐缩小搜索区域,进而找到目标元素。
搜素过程从数组的中间元素开始,如果中间元素正好是要查找的元素,则搜 素过程结束;如果某一特定元素大于或者小于中间元素,则在数组大于或小于中间元素的那一半中查找,而且跟开始一样从中间元素开始比较。如果在某一步骤数组 为空,则代表找不到。这种搜索算法每一次比较都使搜索范围缩小一半。折半搜索每次把搜索区域减少一半,时间复杂度为Ο(logn) 。 注:使用二分查找的前提条件是,数组已经是有序的
二分查找图解:以有序数组 {10, 14, 19, 26, 27, 31, 33, 35, 42, 44} 为例,查找元素 33。
初始状态:
第一轮查找:根据 27<33,可以判定 33 位于 27 右侧的区域,更新搜索区域为元素 27 右侧的区域。
第二轮查找:35>33,可以判定 33 位于 35 左侧的区域,更新搜索区域。
第三轮查找:31<33,可以判定 33 位于 31 右侧的区域,更新搜索区域。
第四轮查找:搜索区域内中间元素的位置是 [(7+7)/2]=7,因此中间元素是 33,此元素就是要找的目标元素。
2. 代码实现 2.1 未封装函数 代码实现思路:
定义low、high、mid,分别代表最小值、最大值和中间值的下标,并且初始赋值low指向第一个元素,high指向最后一个元素;定义target代表要查找的目标值。进行循环二分查找,循环的条件是左边界还未超过右边界(low <= high),当左边界超过右边界,说明查找结束了。对比目标值与中间值的大小,如果两者相等说明查找到了(该值的下标就是中间值的下标mid);如果目标值大于中间值,说明目标值在左半边,此时缩小右边界的范围 (high = mid - 1)重新查找;如果目标值小于中间值,说明目标值在右半边,此时缩小左边界的范围 (low = mid + 1)重新查找。 #include <stdio.
1. 哈希表简介 哈希表(Hash Table):也叫做散列表。是根据关键码值(Key Value)直接进行访问的数据结构。
哈希表通过「键 key 」和「映射函数 Hash(key) 」计算出对应的「值 value」,把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做「哈希函数(散列函数)」,存放记录的数组叫做「哈希表(散列表)」。
哈希表的关键思想是使用哈希函数,将键 key 映射到对应表的某个区块中。我们可以将算法思想分为两个部分:
向哈希表中插入一个关键码值:哈希函数决定该关键字的对应值应该存放到表中的哪个区块,并将对应值存放到该区块中。
在哈希表中搜索一个关键码值:使用相同的哈希函数从哈希表中查找对应的区块,并在特定的区块搜索该关键字对应的值。
哈希表的原理示例图如下所示:
在上图例子中,我们使用 value = Hash(key) = key // 1000 作为哈希函数。// 符号代表整除。我们以这个例子来说明一下哈希表的插入和查找策略。
向哈希表中插入一个关键码值:通过哈希函数解析关键字,并将对应值存放到该区块中。
比如:0138 通过哈希函数 Hash(key) = 0138 // 100 = 0,得出应将 0138 分配到0 所在的区块中。
在哈希表中搜索一个关键码值:通过哈希函数解析关键字,并在特定的区块搜索该关键字对应的值。
比如:查找 2321,通过哈希函数,得出 2321 应该在 2 所对应的区块中。然后我们从 2 对应的区块中继续搜索,并在 2 对应的区块中成功找到了 2321。
比如:查找 3214,通过哈希函数,得出 3214 应该在 3 所对应的区块中。然后我们从 3 对应的区块中继续搜索,但并没有找到对应值,则说明 3214 不在哈希表中。
哈希表在生活中的应用也很广泛,其中一个常见例子就是「查字典」。
比如为了查找 赞 这个字的具体意思,我们在字典中根据这个字的拼音索引 zan,查找到对应的页码为 599。然后我们就可以翻到字典的第 599 页查看 赞 字相关的解释了。