MySQL时间类型函数整理

文章目录 一、MySQL 日期函数、时间函数总结1、MySQL 获得当前日期==时间==函数1.1 获得当前日期+时间(date + time)函数:now()1.2 获得当前日期+时间(date + time)函数:sysdate() 2. 获得当前日期(date)函数:curdate()3. 获得当前时间(time)函数:curtime()4. 获得当前 UTC 日期时间函数:utc_date(), utc_time(), utc_timestamp() 二、MySQL 日期时间 Extract(选取) 函数1. 选取日期时间的各个部分:日期、时间、年、季度、月、日、小时、分钟、秒、微秒2. MySQL Extract() 函数,可以上面实现类似的功能:3. MySQL dayof... 函数:dayofweek(), dayofmonth(), dayofyear()4. MySQL week... 函数:week(), weekofyear(), dayofweek(), weekday(), yearweek()5. MySQL 返回星期和月份名称函数:dayname(), monthname()6. MySQL last_day() 函数:返回月份中的最后一天。 三、MySQL 日期时间计算函数1. MySQL 为日期增加一个时间间隔:date_add()2. MySQL 为日期减去一个时间间隔:date_sub()3. MySQL 另类日期函数:period_add(P,N), period_diff(P1,P2)4. MySQL 日期、时间相减函数:datediff(date1,date2), timediff(time1,time2) 四、MySQL 日期转换函数、时间转换函数1. MySQL (时间、秒)转换函数:time_to_sec(time), sec_to_time(seconds)2. MySQL (日期、天数)转换函数:to_days(date), from_days(days)3. MySQL Str to Date (字符串转换为日期)函数:str_to_date(str, format)4.

毕业设计-基于深度学习的无人驾驶目标检测算法系统 YOLO python 人工智能

目录 前言 设计思路 一、课题背景与意义 二、算法理论原理 2.1 YOLOv5算法 2.2 小目标增强模块 三、检测的实现 3.1 数据集 3.2 实验环境搭建 3.3 实验及结果分析 实现效果图样例 最后 前言 📅大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临的就业升学做准备,一边要为毕业设计耗费大量精力。近几年各个学校要求的毕设项目越来越难,有不少课题是研究生级别难度的,对本科同学来说是充满挑战。为帮助大家顺利通过和节省时间与精力投入到更重要的就业和考试中去,学长分享优质的选题经验和毕设项目与技术思路。 🚀对毕设有任何疑问都可以问学长哦! 选题指导: 最新最全计算机专业毕设选题精选推荐汇总 大家好,这里是海浪学长毕设专题,本次分享的课题是 🎯基于深度学习的自动驾驶汽车无人驾驶目标检测算法系统 设计思路 一、课题背景与意义 自动驾驶计算平台的资源有限,需要在有限的计算资源下同时处理多种传感和计算任务。为了应对道路背景复杂和小目标信息缺失的问题,提出了一种改进的目标检测网络。该网络具有较小的内存占用率和计算资源占用率,适应自动驾驶场景的需求。通过准确定位目标位置和提高小目标检测效果,为自动驾驶汽车提供更丰富的目标信息,提升目标检测的精度和鲁棒性。 二、算法理论原理 2.1 YOLOv5算法 在基于YOLOv5s的目标检测网络中,进行了两方面的改进:在颈部网络中添加了位置注意力模块,帮助网络感知道路目标在图像中的空间位置分布,从而增强了网络的特征提取能力;在主干网络中添加了小目标增强模块,丰富了检测网络对小目标的特征信息,提高了网络在小目标检测方面的精度。 这些改进使得网络在目标检测任务中具有更好的性能。通过位置注意力模块,网络能够更准确地定位目标的位置,提高目标检测的准确性和鲁棒性。而小目标增强模块则有助于增强网络对于小目标的特征提取能力,提高小目标的检测效果。 在基于HANet的基础上设计了一种位置注意力模块,用于提取自动驾驶场景中的空间位置注意力特征,以增强网络对目标类别和位置分布的感知和定位能力。该模块通过特征压缩、全局平均池化和1×1卷积等步骤,对特征图进行处理,压缩冗余通道特征,从而计算出位置注意力特征图。为了捕获像素间的空间上下文相关性和通道间的语义相关性,同时提高计算效率,该模块同时使用通道注意力和空间注意力,并采用并联的方式提取注意力特征。 通过引入位置注意力模块,网络能够更准确地感知和定位自动驾驶场景中目标的位置分布,从而增强目标检测的能力。同时,该模块的设计考虑了计算效率,以减少计算时间成本。总之,该位置注意力模块在自动驾驶场景中能够提供更强的感知能力,并为目标检测任务带来明显的性能提升。 相关代码示例: # 定义改进后的YOLOv5s网络 class ImprovedYOLOv5s(nn.Module): def __init__(self, num_classes): super(ImprovedYOLOv5s, self).__init__() # 主干网络,包含多个卷积层和池化层 self.backbone = nn.Sequential( # ... ) # 位置注意力模块 self.position_attention = PositionAttentionModule(in_channels=512) # 小目标增强模块 self.small_object_enhancement = SmallObjectEnhancementModule(in_channels=256) # 检测层,用于预测目标的类别和位置 self.detection = nn.Sequential( # .

基于python舆情分析可视化系统+情感分析+爬虫+机器学习(源码)✅

大数据毕业设计:Python招聘数据采集分析可视化系统✅ 毕业设计:2023-2024年计算机专业毕业设计选题汇总(建议收藏) 毕业设计:2023-2024年最新最全计算机专业毕设选题推荐汇总 🍅感兴趣的可以先收藏起来,点赞、关注不迷路,大家在毕设选题,项目以及论文编写等相关问题都可以给我留言咨询,希望帮助同学们顺利毕业 。🍅 1、项目介绍 技术栈: Python语言、Flask框架、MySQL数据库、requests网络爬虫技术、scikit-learn机器学习、snownlp情感分析、词云、舆情分析 为了获取微博信息数据做后续的任务分析,需要使用爬虫技术,爬取微博网的微博信息数据,针对微博网的反爬机制,需要使用反爬手段绕过反爬机制,确保获取数据的准确性和完整性。本次爬虫设计的目标是获取微博信息,数据获取模块的实现是通过requests网络爬虫技术采集微博网上微博信息。 2、项目界面 (1)系统首页-数据概况 (2)微博舆情统计分析 (3)舆情文章分析 (4)IP地址分析 (5)舆情数据 (6)舆情评论分析 (7)舆情分析 (8)注册登录 3、项目说明 1.开发工具 本项目主要采用 PyCharm 开放平台利用 Python 语言来实现的。PyCharm 是一种PythonIDE,带有一整套可以帮助用户在使用 Python 语言开发时提高其效率的工具。 2.数据获取 为了获取微博信息数据做后续的任务分析,需要使用爬虫技术,爬取微博网的微博信息数据,针对微博网的反爬机制,需要使用反爬手段绕过反爬机制,确保获取数据的准确性和完整性。本次爬虫设计的目标是获取微博信息,数据获取模块的实现是通过requests网络爬虫技术采集微博网上微博信息。本次爬虫的运行基本流程如图 1 所示。 本地保存数据应对后续数据分析,可以使用MySQL和csv对数据进行持久化保存,对于MySQL可以通过Pymysql结合Sqlalchemy或者Pandas进行数据插入。因此本次实验选用的是 MySQL 数据库对采集的数据进行数据存储。 3、微博热词统计:热点年份变化趋势、热词情感分析、热词频率分析 首先,热点年份变化趋势是指在不同年份中,微博上的热点话题发展的趋势和变化。通过统计不同年份中的热词,我们可以了解到社会关注焦点的转移和变化趋势。例如,某个年份的热词可能主要集中在娱乐明星或电视剧上,而另一个年份可能更多关注社会事件或政治话题。 其次,热词情感分析是通过对热词相关微博内容的情感倾向进行分析。通过对微博用户的评论、转发和点赞等行为进行监测和分析,可以了解到用户对热词所表达的情绪态度。例如,某个热词在微博上的情感分析结果可能显示大多数用户对该话题持正面态度,少数用户持负面态度。这样的分析有助于我们了解社会舆论对于热点话题的态度和倾向。 最后,热词频率分析是指对热词在微博上出现的频率进行统计和分析。通过统计不同热词在微博平台上的出现次数,可以了解到不同话题的受关注程度和热度。例如,某个热词在一段时间内频繁出现,说明这个话题在社会上引起了广泛关注。 4、微博文章分析:文章类型占比分析、文章评论量分析、文章转发量分析、文章内容词云分析、文章基本信息统计分析 文章评论量分析:评论量是衡量文章受关注程度的重要指标之一。通过统计文章的评论数量,可以了解用户对文章的关注程度和参与度。这可以帮助我们判断文章的受欢迎程度和影响力。 文章转发量分析:转发量是衡量文章传播范围和影响力的指标之一。通过统计文章的转发数量,可以了解用户对文章内容的认同和推荐程度。这有助于评估文章的传播效果和影响力。 文章内容词云分析:文章内容词云是通过对文章中出现频率较高的词语进行可视化展示,以呈现文章的关键主题和热点话题。通过词云分析,可以直观地了解文章的主要内容和关注点。 文章基本信息统计分析:文章基本信息统计分析包括统计文章的发布时间、作者、阅读量等关键信息。这些统计数据可以帮助我们了解文章的发布趋势、作者影响力以及受众规模等信息。 5、微博评论分析:评论用户性别占比分析、用户评论词云图分析、评论点赞分析 首先,对于微博评论的用户性别占比分析,通过统计和分析这些信息,我们可以了解在一定的评论样本中,男性和女性用户的数量占比情况。这可以为我们提供有关该话题或事件下不同性别用户参与讨论的情况,有助于了解不同性别用户的观点和态度。 其次,用户评论词云图分析可以帮助我们了解评论中出现频率较高的关键词。我们可以通过文本处理技术,对评论内容进行分词并统计词频,然后将高频词汇绘制成词云图。这样,我们就能够直观地看到哪些词汇在评论中被提及得较多,从而推测用户对该话题或事件的关注点和情感倾向。 最后,评论点赞分析可以帮助我们了解哪些评论在用户中较受欢迎或者认同。通过统计每条评论的点赞数,我们可以排名评论的受欢迎程度,并分析受欢迎的评论内容特点。这有助于我们了解用户对于该话题或事件的主要认同观点,以及哪些评论具有较高的影响力。 6、微博舆情分析:热词情感趋势、文章内容与评论内容舆情趋势分析 微博热词情感趋势是指根据微博用户在某一段时间内热议的关键词或话题的相关内容进行情感分析,从而了解用户对该热词的情感态度变化趋势。情感趋势分析可以帮助我们更好地了解用户的喜好、态度以及对某一事件或话题的关注程度。 文章内容与评论内容舆情趋势分析是指通过对网络上用户发布的文章内容和评论内容进行分析,了解用户对某一事件、产品或话题的舆情倾向。舆情趋势分析可以帮助我们了解用户对某一事件的态度、关注度以及舆论走向,从而有效地进行舆情管理和营销策划。 4、核心代码 from utils import getPublicData import jieba import matplotlib.pyplot as plt from wordcloud import WordCloud, ImageColorGenerator from PIL import Image # 图片处理 import numpy as np from snownlp import SnowNLP def getTypeList(): typeList = list(set([x[8] for x in getPublicData.

大数据毕业设计:python微博舆情分析系统+可视化+情感分析+爬虫+机器学习(源码)✅

博主介绍:✌全网粉丝10W+,前互联网大厂软件研发、集结硕博英豪成立工作室。专注于计算机相关专业毕业设计项目实战6年之久,选择我们就是选择放心、选择安心毕业✌感兴趣的可以先收藏起来,点赞、关注不迷路✌ 毕业设计:2023-2024年计算机毕业设计1000套(建议收藏) 毕业设计:2023-2024年最新最全计算机专业毕业设计选题汇总 1、项目介绍 技术栈: Python语言、Flask框架、MySQL数据库、requests网络爬虫技术、scikit-learn机器学习、snownlp情感分析、词云、舆情分析 2、项目界面 (1)系统首页-数据概况 (2)微博舆情统计分析 (3)舆情文章分析 (4)IP地址分析 (5)舆情数据 (6)舆情评论分析 (7)舆情分析 (8)文章内容词云分析 3、项目说明 1.开发工具 本项目主要采用 PyCharm 开放平台利用 Python 语言来实现的。PyCharm 是一种PythonIDE,带有一整套可以帮助用户在使用 Python 语言开发时提高其效率的工具。 2.数据获取 为了获取微博信息数据做后续的任务分析,需要使用爬虫技术,爬取微博网的微博信息数据,针对微博网的反爬机制,需要使用反爬手段绕过反爬机制,确保获取数据的准确性和完整性。本次爬虫设计的目标是获取微博信息,数据获取模块的实现是通过requests网络爬虫技术采集微博网上微博信息。本次爬虫的运行基本流程如图 1 所示。 图 1 爬虫流程 本地保存数据应对后续数据分析,可以使用MySQL和csv对数据进行持久化保存,对于MySQL可以通过Pymysql结合Sqlalchemy或者Pandas进行数据插入。因此本次实验选用的是 MySQL 数据库对采集的数据进行数据存储。 3、微博热词统计:热点年份变化趋势、热词情感分析、热词频率分析 首先,热点年份变化趋势是指在不同年份中,微博上的热点话题发展的趋势和变化。通过统计不同年份中的热词,我们可以了解到社会关注焦点的转移和变化趋势。例如,某个年份的热词可能主要集中在娱乐明星或电视剧上,而另一个年份可能更多关注社会事件或政治话题。 其次,热词情感分析是通过对热词相关微博内容的情感倾向进行分析。通过对微博用户的评论、转发和点赞等行为进行监测和分析,可以了解到用户对热词所表达的情绪态度。例如,某个热词在微博上的情感分析结果可能显示大多数用户对该话题持正面态度,少数用户持负面态度。这样的分析有助于我们了解社会舆论对于热点话题的态度和倾向。 最后,热词频率分析是指对热词在微博上出现的频率进行统计和分析。通过统计不同热词在微博平台上的出现次数,可以了解到不同话题的受关注程度和热度。例如,某个热词在一段时间内频繁出现,说明这个话题在社会上引起了广泛关注。 4、微博文章分析:文章类型占比分析、文章评论量分析、文章转发量分析、文章内容词云分析、文章基本信息统计分析 文章评论量分析:评论量是衡量文章受关注程度的重要指标之一。通过统计文章的评论数量,可以了解用户对文章的关注程度和参与度。这可以帮助我们判断文章的受欢迎程度和影响力。 文章转发量分析:转发量是衡量文章传播范围和影响力的指标之一。通过统计文章的转发数量,可以了解用户对文章内容的认同和推荐程度。这有助于评估文章的传播效果和影响力。 文章内容词云分析:文章内容词云是通过对文章中出现频率较高的词语进行可视化展示,以呈现文章的关键主题和热点话题。通过词云分析,可以直观地了解文章的主要内容和关注点。 文章基本信息统计分析:文章基本信息统计分析包括统计文章的发布时间、作者、阅读量等关键信息。这些统计数据可以帮助我们了解文章的发布趋势、作者影响力以及受众规模等信息。 5、微博评论分析:评论用户性别占比分析、用户评论词云图分析、评论点赞分析 首先,对于微博评论的用户性别占比分析,通过统计和分析这些信息,我们可以了解在一定的评论样本中,男性和女性用户的数量占比情况。这可以为我们提供有关该话题或事件下不同性别用户参与讨论的情况,有助于了解不同性别用户的观点和态度。 其次,用户评论词云图分析可以帮助我们了解评论中出现频率较高的关键词。我们可以通过文本处理技术,对评论内容进行分词并统计词频,然后将高频词汇绘制成词云图。这样,我们就能够直观地看到哪些词汇在评论中被提及得较多,从而推测用户对该话题或事件的关注点和情感倾向。 最后,评论点赞分析可以帮助我们了解哪些评论在用户中较受欢迎或者认同。通过统计每条评论的点赞数,我们可以排名评论的受欢迎程度,并分析受欢迎的评论内容特点。这有助于我们了解用户对于该话题或事件的主要认同观点,以及哪些评论具有较高的影响力。 6、微博舆情分析:热词情感趋势、文章内容与评论内容舆情趋势分析 微博热词情感趋势是指根据微博用户在某一段时间内热议的关键词或话题的相关内容进行情感分析,从而了解用户对该热词的情感态度变化趋势。情感趋势分析可以帮助我们更好地了解用户的喜好、态度以及对某一事件或话题的关注程度。 文章内容与评论内容舆情趋势分析是指通过对网络上用户发布的文章内容和评论内容进行分析,了解用户对某一事件、产品或话题的舆情倾向。舆情趋势分析可以帮助我们了解用户对某一事件的态度、关注度以及舆论走向,从而有效地进行舆情管理和营销策划。 4、核心代码 from utils import getPublicData import jieba import matplotlib.pyplot as plt from wordcloud import WordCloud, ImageColorGenerator from PIL import Image # 图片处理 import numpy as np from snownlp import SnowNLP def getTypeList(): typeList = list(set([x[8] for x in getPublicData.

【MySQL】MySQL中查询JSON字段的实战指南

前言 MySQL自5.7版本起,对JSON数据类型提供了全面的支持。这使得我们可以将结构化和半结构化的数据直接存储在数据库表的一个列中,极大地增强了数据模型的灵活性。本文将深入探讨如何在MySQL中利用内置函数处理JSON字段,进行高效的查询与匹配。 JSON字段查询基础 MySQL为JSON字段提供了一系列强大的函数,可以帮助我们从JSON文档中提取、检查和操作数据。 1. JSON_EXTRACT JSON_EXTRACT()函数用于从JSON字段中提取指定路径下的值。 SELECT JSON_EXTRACT(json_column, '$.path.to.value') FROM table_name; 在这个示例中,$.path.to.value 是JSON对象内部嵌套结构中的键路径,该函数会返回对应路径下的值。 2. JSON_CONTAINS 当需要判断JSON文档中是否包含特定的值或文档时,可以使用 JSON_CONTAINS() 函数。 检查JSON数组中是否存在某个值: SELECT * FROM table_name WHERE JSON_CONTAINS(json_array_column, 'value', '$'); 检查JSON对象中是否存在某个键值对: SELECT * FROM table_name WHERE JSON_CONTAINS(json_object_column, '{"key": "value"}', '$'); 3. JSON_SEARCH 如果需要查找JSON字符串中符合给定模式的值及其所在路径,可以使用 JSON_SEARCH() 函数: SELECT JSON_SEARCH(json_column, 'one', 'search_value') FROM table_name; 4. JSON_LENGTH & JSON_ARRAY_LENGTH JSON_LENGTH() 返回JSON字段的长度,对于数组是元素个数,对于对象是键值对的数量。 SELECT JSON_LENGTH(json_column) FROM table_name; 特别针对JSON数组,JSON_ARRAY_LENGTH() 可以获取数组内元素的个数。 SELECT JSON_ARRAY_LENGTH(json_array_column) FROM table_name; 5. JSON_VALUE 类似于 JSON_EXTRACT,但只返回标量值(非JSON格式),而是转换为SQL能够识别的数据类型:

Python 中的字符串分割函数 split() 详解

更多Python学习内容:ipengtao.com 在 Python 编程中,处理字符串是一项常见的任务。字符串分割是其中的一个常见操作,而 Python 提供了强大的 split() 函数,用于将字符串拆分成多个部分。本文将详细介绍 split() 函数的用法、参数和示例代码,以帮助大家充分利用这个功能。 基本用法 split() 函数是 Python 字符串的内置方法,用于将一个字符串按照指定的分隔符拆分成多个子字符串,并将这些子字符串存储在列表中。 函数的基本语法如下: str.split([separator[, maxsplit]]) separator(可选参数):指定用于分隔字符串的分隔符,默认为所有空白字符(包括空格、制表符、换行符等)。可以是字符串或字符。 maxsplit(可选参数):指定最大分割次数。如果提供了此参数,函数将执行最多 maxsplit 次分割。 下面是一个简单的示例,演示如何使用 split() 函数将字符串分割成列表: # 基本用法示例 text = "Hello,World,Python" words = text.split(",") # 使用逗号作为分隔符 print(words) # 输出:['Hello', 'World', 'Python'] 在上述示例中,使用逗号 , 作为分隔符将字符串 text 分割成了一个包含多个单词的列表 words。 使用默认分隔符 默认情况下,split() 函数会使用所有空白字符作为分隔符,包括空格、制表符、换行符等。 以下是一个示例: # 使用默认分隔符分割字符串 text = "Hello World\tPython" words = text.split() # 不提供分隔符,默认使用空白字符分割 print(words) # 输出:['Hello', 'World', 'Python'] 在上述示例中,字符串中的多个连续空白字符被视为一个分隔符。 使用 maxsplit 参数 可以使用 maxsplit 参数来限制分割的次数。这对于只想分割字符串的前几部分很有用。

rk3588 多线程异步提高RK3588的NPU占用率,yolov5s目标检测-python摄像头实时检测65fps,c++实时检测120fps

简单说点记录,python要在rk3588安装虚拟环境, 首先我们要知道rk3588环境配置: Ubuntu 18.04 python3.6/7 Ubuntu 20.04 python3.8/9 Ubuntu 22.04 python3.10/11 我的板子ubantu22.04 所以装python10,,tensorflow2.8.0要单独先下载,转出1.6.0的模型,转的时候要把代码改成rk3588平台,rk3588板子要升级1.6.0版本哦: sudo cp /home/orangepi/xushuanglong/rknn-toolkit2-master2/rknpu2/runtime/Linux/librknn_api/aarch64/librknnrt.so /usr/lib/librknnrt.so sudo cp /home/orangepi/xushuanglong/rknn-toolkit2-master2/rknpu2/runtime/Linux/librknn_api/aarch64/librknn_api.so /usr/lib/librknn_api.so pc端 linux rknn-toolkit2; rk3588板子 aarch rknn_toolkit_lite2 清华源:-i https://pypi.tuna.tsinghua.edu.cn/simple yolov5 训练的时候选noautoanchor,改激活函数relu,不然一堆乱框。 ####### export.py导出onnx时要改,训练不改 def forward(self, x): z = [] # inference output for i in range(self.nl): x[i] = self.m[i](x[i]) # conv return x pc上 rknn-toolkit2,onnx导出rknn,要改: rknn.config(mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]], target_platform='rk3588') 到此,rknn3588模型转换然后到python部署没啥问题了。 c++的话,代码里把CMakeLists.txt里的位置填对,bash编译就完事了。把什么1.6.0 的opencv库, 及librknnrt.so等,粘过来。 要提高摄像头实时fps的话,要写多线程异步提高RK3588的NPU占用率,还有提高NPU,CPU定频命令 查看npu使用率:sudo cat /sys/kernel/debug/rknpu/load

Stable Diffusion ComfyUI 速度更快,控制更精准

一、前言 大家在使用Stable Diffusion(简称SD)时,通常是通过网页界面进行操作的。但你们有没有听说过ComfyUI呢? ComfyUI是一个建立在节点流程上的SD操作界面。它通过流程节点来实现更细致的工作流定制以及更好的可复现性。 每个节点都承担着特定的功能,用户可以通过调节这些节点之间的连接来改变最终生成的图像效果。 尽管节点式的工作流程略微提高了使用的门槛,但它的内部生成过程经过优化,使得图片生成的速度比标准的网页界面更快,同时对显存的要求也降低了(仅需4GB显存即可流畅运行)。 二、WebUI 与 ComfyUI 对比 优点包括: 显存使用效率高,启动及图像生成速度均较快;提供更广泛的创作空间;能够与webui环境及模型互通;支持个性化工作流构建,流程可导出与分享,错误定位明确;导入生成图片能自动重现工作流程,并自动选择合适的模型。 缺点则为: 使用门槛相对较高,需要用户具备较强的逻辑思维能力;相对于webui,其生态圈尚在发展中(尽管常用功能一应俱全),但也孕育了一些专为ComfyUI打造的有趣插件。 三、下载安装 github源码地址 https://github.com/comfyanonymous/ComfyUI 下载整合依赖包: https://pan.baidu.com/s/1oGgGXU49ct0zD6az24lRJw?pwd=rpth 整合包中的启动器,仅支持windows x64系统,GPU/CPU 皆可运行,使用chrome浏览器,win10中使用edge可能出现无法加载的情况 四、模型下载 ComfyUI 虽然部署好环境和依赖,但是里面没有模型,我们需要把模型放到对应位置 大模型放入 "offlineaitools_ComfyUI\offlineaitools\ComfyUI\models\checkpoints" VAE 模型放入 “offlineaitools_ComfyUI\offlineaitools\ComfyUI\models\vae” Lora 模型 “offlineaitools_ComfyUI\offlineaitools\ComfyUI\models\loras” 2. 共享WebUI模型 在offlineaitools_ComfyUI\offlineaitools\ComfyUI目录下创建extra_model_paths.yaml 文件填写以下内容,便可加载模型 a111: base_path: 这里替换为sd_webui根目录,必须是绝对路径 checkpoints: models/Stable-diffusion configs: models/Stable-diffusion vae: models/VAE loras: | models/Lora models/LyCORIS upscale_models: | models/ESRGAN models/RealESRGAN models/SwinIR embeddings: embeddings hypernetworks: models/hypernetworks controlnet: models/ControlNet 五、常用插件安装 进入offlineaitools_ComfyUI\offlineaitools\ComfyUI\custom_nodes目录,启动PowerShell使用git命令安装插件 1.ComfyUI 管理器 git clone https://github.com/ltdrdata/ComfyUI-Manager.git 2.界面汉化

数据结构英文习题解析-第五章 二叉搜索树Binary Search Tree

前言:最近快到FDS考试了,po重刷了一下学校的题目,自己整理了一些解析orz 因为po在自己找解析和学习的过程中非常痛苦,所以在此共享一下我的题目和自己写的解题思路,欢迎各位指出错误~全章节预计会陆续更新,可在专栏查看~ HW5 1.In a binary search tree, the keys on the same level from left to right must be in sorted (non-decreasing) order. T 2.In a binary search tree which contains several integer keys including 4, 5, and 6, if 4 and 6 are on the same level, then 5 must be their parent. F;4和6可能不是同一个parent的两个child,可能4是rchild,6是lchild 3. Given a binary search tree as shown in the following figure. Which of the following relationships is correct with respect to the given tree?

MySQL、Oracle 生成随机ID、随机数、随机字符串

目录 1 MySQL 生成随机ID1.1 生成 唯一的随机ID:UUID()1.2 生成随机数:RAND()1.2.1 RAND():返回一个介于0和1之间的随机浮点数1.2.2 FLOOR(RAND() * 100):返回一个介于0和99之间的随机整数1.2.3 LPAD(FLOOR(RAND() * 99999999), 8, '0'):返回一个8位的随机字符串 2 Oracle 生成随机ID2.1 生成 唯一的随机ID:SYS_GUID()2.2 生成随机数2.2.1 DBMS_RANDOM.VALUE(low, high): 生成一个介于low和high之间的随机数值。2.2.2 DBMS_RANDOM.STRING(format, length): 生成一个指定格式和长度的随机字符串。 1 MySQL 生成随机ID 1.1 生成 唯一的随机ID:UUID() UUID():是由128位的数字组成的全局唯一标识符。每次都生成一个新的随机数。 它通常以32个十六进制数的形式表示,分为5个部分,以连字符分隔。 UUID的长度是36个字符,包括32个十六进制数字和4个连字符。 UUID的标准格式是由 8-4-4-4-12 个十六进制数字组成的,其中每个部分的长度是固定的。 典型UUID,如: 22e2a70a-b1ce-11ee-84af-00ff25f02c26 参考案例: SELECT UUID() AS random_id; -- 返回:22e2a70a-b1ce-11ee-84af-00ff25f02c26 SELECT LENGTH(UUID()); --返回:36 补充: LENGTH(str) : 返回 字符串长度 1.2 生成随机数:RAND() 1.2.1 RAND():返回一个介于0和1之间的随机浮点数 参考案例: SELECT RAND() AS random_number; -- 返回:0.005985797388465886 1.2.2 FLOOR(RAND() * 100):返回一个介于0和99之间的随机整数 参考案例:

Python向Excel写入内容的方法大全

在数据处理和分析中,将Python中的数据写入Excel是一项常见任务。 本文将介绍几种常见的方法,以及如何使用它们向Excel中写入内容。 方法一:使用openpyxl库 openpyxl是一个功能强大的库,用于读写Excel文件。以下是一个简单的使用示例: import openpyxl`` ``# 创建一个新的Excel工作簿``workbook = openpyxl.Workbook()`` ``# 获取默认的工作表``sheet = workbook.active`` ``# 写入数据``sheet['A1'] = '姓名'``sheet['B1'] = '年龄'`` ``# 添加一行数据``sheet.append(['Alice', 25])`` ``# 保存工作簿``workbook.save('example.xlsx')`` 方法二:使用pandas库 pandas是一个强大的数据处理库,也支持将数据写入Excel文件。以下是一个示例: import pandas as pd`` ``# 创建一个DataFrame``data = {'姓名': ['Bob', 'Alice'], '年龄': [30, 25]}``df = pd.DataFrame(data)`` ``# 将DataFrame写入Excel文件``df.to_excel('example_pandas.xlsx', index=False)`` 方法三:使用xlwt和xlrd库 xlwt和xlrd是处理Excel的两个经典库。xlwt用于写入Excel,而xlrd用于读取Excel。以下是一个简单的使用示例: import xlwt`` ``# 创建一个工作簿``workbook = xlwt.Workbook()`` ``# 添加一个工作表``sheet = workbook.add_sheet('Sheet1')`` ``# 写入数据``sheet.write(0, 0, '姓名')``sheet.write(0, 1, '年龄')``sheet.write(1, 0, 'Bob')``sheet.write(1, 1, 30)`` ``# 保存工作簿``workbook.save('example_xlwt.xls')`` 以上就是向excel表格中写入内容的几种方法了,大家可以根据自己的习惯选择其一即可。

数据结构第十三弹---链式二叉树基本操作(上)

链式二叉树 1、结构定义2、手动创建二叉树3、前序遍历4、中序遍历5、后序遍历6、层序遍历7、计算结点个数8、计算叶子结点个数9、计算第K层结点个数10、计算树的最大深度总结 1、结构定义 实现一个数据结构少不了数据的定义,所以第一步需要定义二叉树的机构。 typedef char BTDataType;//定义数据类型,可以根据需要更改 typedef struct BinaryTreeNode { struct BinaryTreeNode* left;//左指针 struct BinaryTreeNode* right;//右指针 BTDataType data;//存储数据 }BTNode; 2、手动创建二叉树 初次学习链式二叉树,对于创建一个二叉树较难理解,所以先手动创建二叉树,学习一些操作之后再来通过函数实现链式二叉树。 //创建结点函数 BTNode* BuyTree(BTDataType x) { BTNode* newnode = (BTNode*)malloc(sizeof(BTNode)); newnode->data = x; newnode->left = NULL; newnode->right = NULL; return newnode; } //创建结点 BTNode* A = BuyTree('A'); BTNode* B = BuyTree('B'); BTNode* C = BuyTree('C'); BTNode* D = BuyTree('D'); BTNode* E = BuyTree('E'); BTNode* F = BuyTree('F'); //链接结点 A->left = B; A->right = E; B->left = C; B->right = D; E->left = F; 3、前序遍历 前序遍历,又称先根遍历。

让你的自媒体文章更有魅力:这7款ai写作工具你一定不能错过!

这些工具不仅可以快速生成高质量的文本内容,还可以根据用户的需求进行个性化定制。它们可以帮助我们节省大量的时间和精力,让我们更加专注于创意和细节的打磨。本文将为大家详细介绍几个AI写作工具,让你在写作领域更上一层楼。 1.元芳写作 这是一个微信公众号 面向专业写作领域的ai写作工具,写作助手包括,ai论文,ai开题报告、ai公文写作、ai商业计划书、文献综述、ai生成、ai文献推荐、AI论文摘要,帮助用户在线快速生成。 写作主打简单、易操作,200+写作模板,小白也能快速上手。只要输入简单的要求和描述,就能自动生成各种高质量文稿内容。 写作功能特色: 多场景写作模板,不限于某个领域, 12+ 种职位的 100+ 工作场景,10秒即可生成一篇专业文章。无论你需要修改简历、撰写公文,还是分享工作心得,我们都能让写作变得轻松无压力。 AI文档续写:策划活动方案卡壳,写小说灵感枯竭。只需上传你的文档,AI 就能帮你续写、修改、扩展和润色。笔灵AI写作轻松解决写作焦虑。 与AI对话:除了AI 改写、 AI续写,AI 一键生成文案,笔灵AI写作还支持 AI 聊天机器人、AI专家对话,全面满足你的 AI 使用需求。 ai写作生成器: 5秒一篇原创文章的AI写作工具。基于AI文章生成器、Al论文生成器、AI作文生成器、AI文案生成器、AI创作生成器、AI创作工具等的ai智能写作生成器 2.飞鸟写作 这是一个微信公众号 面向专业写作领域的ai写作工具,写作助手包括,ai论文,ai开题报告、ai公文写作、ai商业计划书、文献综述、ai生成、ai文献推荐、AI论文摘要,帮助用户在线快速生成。 写作主打简单、易操作,200+写作模板,小白也能快速上手。只要输入简单的要求和描述,就能自动生成各种高质量文稿内容。 写作功能特色: 多场景写作模板,不限于某个领域, 12+ 种职位的 100+ 工作场景,10秒即可生成一篇专业文章。无论你需要修改简历、撰写公文,还是分享工作心得,我们都能让写作变得轻松无压力。 AI文档续写:策划活动方案卡壳,写小说灵感枯竭。只需上传你的文档,AI 就能帮你续写、修改、扩展和润色。笔灵AI写作轻松解决写作焦虑。 与AI对话:除了AI 改写、 AI续写,AI 一键生成文案,笔灵AI写作还支持 AI 聊天机器人、AI专家对话,全面满足你的 AI 使用需求。 飞鸟写作,飞鸟AI写作神器,免费伪原创写作生成器,AI写作文案,AI写作助手,AI一键写作文智能改写神器,AI写作,七燕写作神器 3.场辞-AI视频字幕制作软件 场辞,AI视频字幕制作软件,一款基于语音识别技术的视频字幕制作软件,一键智能识别字幕,提供语音转字幕、一键加字幕、视频加字幕,字幕快捷校对等功能,用AI加速你的创作。 场辞,ai视频字幕制作软件,一款基于语音识别技术的视频字幕制作软件,提供语音转字幕、一键加字幕、视频加字幕,字幕快捷校对等功能,一键智能识别字幕,用AI加速你的创作。 场辞功能: 1、操作简单,快速做字幕 场辞采用行业头部视频制作团队的工作流,让你能轻松为各种类型的视频内容制作字幕。 2、丰富的文件导入格式 支持多种常见格式的音视频文件、字幕文件的导入和处理 3、领先的字幕自动识别能力 场辞接入行业领先的语音识别能力,自动识别语音内容,智能切分时间轴 4、创新高效的字幕编辑工具 场辞支持多轨制作,可视化时间轴编辑和实时预览;更有一系列创新工具助力高效字幕制作 5、便捷的一键导出能力 场辞支持SRT/ASS/XML等多格式常见字幕输出,无缝对接第三方制作工具;支持一键压制带字幕视频和压制参数设置 4.猫耳FM - M站 猫耳FM(M站)是一家广播剧弹幕音图站,同时也是中国声优基地。 猫耳FM(M站) - 让广播剧流行起来,猫耳FM(M站)是一家弹幕音图站,同时也是中国声优基地,在这里可以听电台,音乐,翻唱,小说和广播剧,用二次元声音连接三次元。M站(猫耳FM)目前有电台、有声漫画,娱乐,音乐、配音/广播剧、声优库6个板块。 猫耳FM(M站)由站长“魔王SK”于2010年7月12日创建。猫耳FM(M站)建站的初衷是为用户提供一个音频和图片的分享网站。现拥有有别于大陆其他网站的弹幕系统。 猫耳FM(M站)功能版块: 剧好听 - 你追的小说和漫画在这里都有声音剧,关灯上床躺着慢慢听。纯爱、悬疑、灵异、少女、治愈应有尽有。

14、强化学习Soft Actor-Critic算法:推导、理解与实战

基于LunarLander登陆器的Soft Actor-Critic强化学习(含PYTHON工程) Soft Actor-Critic算法是截至目前的T0级别的算法了,当前正在学习,在此记录一下下。 其他算法: 07、基于LunarLander登陆器的DQN强化学习案例(含PYTHON工程) 08、基于LunarLander登陆器的DDQN强化学习(含PYTHON工程) 09、基于LunarLander登陆器的Dueling DQN强化学习(含PYTHON工程) 10、基于LunarLander登陆器的Dueling DDQN强化学习(含PYTHON工程) 11、基于LunarLander登陆器的A2C强化学习(含PYTHON工程) TRPO的LunarLander登陆器强化学习(含PYTHON工程): 11.1、信赖域策略优化算法TRPO强化学习-从理论到实践 11.2、信赖域策略优化算法TRPO强化学习-约束优化求解 11.3、信赖域策略优化算法TRPO强化学习-运用实践 PPO的LunarLander登陆器强化学习(含PYTHON工程): 13、近端策略优化Proximal Policy Optimization (PPO) 算法:从原理到实践 SAC的LunarLander登陆器强化学习(含PYTHON工程): 14、强化学习Soft Actor-Critic算法:推导、理解与实战 参考: Soft Actor Critic 详细推导与深入理解 SAC: Soft Actor-Critic Part 1 目录 基于LunarLander登陆器的Soft Actor-Critic强化学习(含PYTHON工程)0、SAC算法简介1、基本参数定义2、SAC基础思路2.1、考虑熵的Policy网络2.2、考虑熵的Critic网络(Soft Policy Evaluation)2.3、Soft Policy lmprovement2.4、Soft Policy Iteration 3、Soft Actor Critic网络框架与更新3.1 状态价值函数V的更新(Soft value functon update)3.2 动作价值函数Q的更新(Soft Q functon update)3.3 策略网络的更新(Soft policy functon update)与重参数思想3.4 决策边界Bound 4、自动确定温度系数 α \alpha α5. 基于LunarLander登陆器的Soft Actor-Critic强化学习 0、SAC算法简介 Soft Actor-Critic算法是截至目前的T0级别的算法,其综合了之前TRPO、PPO、TD3的优势:

【小程序】微信开发者工具+心知天气API实现天气预报

前言 问:为什么使用心知天气的天气数据API而不是其他产品? 答: 心知天气为我们提供了一款通过标准的Restful API接口进行数据访问的天气数据API产品; 心智天气官网为我们提供了足够详细的开发文档和用户手册,方便我们快速上手进行开发; 心知天气旗下的天气数据API针对不同用户提供了四种产品套餐:免费版、试用版、开发者套餐和企业版;对于处在学习阶段的我们可以选择免费申请试用版进行测试学习; 1.效果图 2.获取心知天气API接口 2.1.获取个人API私钥 心知天气官网链接:心知天气https://www.seniverse.com/ 进入心知天气官网注册账号 登录成功后进入控制台页面添加产品(注:这里的试用版和免费版是我已添加过的) 免费申请试用版(亦可充值申请开发者套餐进行长期开发,价格也比较划算) 申请成功后点击产品管理=>进入您选择的产品项,在基本信息项获取API私钥 2.2.查询开发文档获取API接口 官网点击文档进入 心知天气API文档链接 3.开发测试 3.1.获取页面素材包 心知天气官方文档提供:(注:本演示代码背景采取浅色系,推荐使用官方文档提供的暗色主题图标)心知天气官方文档提供的亮色系主题图标链接心知天气官方文档提供的暗色系主题图标链接 使用原因: 亮色主题图标 暗色主题图标 本文演示代码背景使用浅色系,使用亮色主题图标如图所示,会和浅色背景混合导致图标显示不清,所以推荐使用暗色主题图标; 心知天气提供的素材包命名格式采取code@1x.png格式,code是后文中使用wx.request请求API接口获得的属性,可以避免我们自定义方法切换素材从而增大系统开销; 3.2.main.json { "usingComponents": {}, "navigationBarBackgroundColor": "#000000", "navigationBarTextStyle": "white", "navigationBarTitleText": "天气预报", "backgroundColor": "#eeeeee", "backgroundTextStyle": "light" } usingComponents:用于引入自定义组件。这里没有引入任何自定义组件,后期可进行二次开发添加组件; navigationBarBackgroundColor:设置小程序导航栏的背景颜色; navigationBarTextStyle:设置小程序导航栏的文字颜色; navigationBarTitleText:设置小程序导航栏中间的标题; backgroundColor:设置小程序页面的背景颜色 backgroundTextStyle:设置小程序页面的背景文字颜色,以适应浅色背景 3.3.main.wxml <view> <view class="header-modular"><!--顶部模块的容器--> <image class="bg-wave" src="../../images/black/bg_wave.gif"></image><!--背景图片--> <view class="row" style="width: 100%;margin: auto;"><!--水平布局的容器--> <view class="tmp" id="now_tmp">{{now.temperature}}°</view><!--当前温度--> <image class="icon-weather" id="now_icon" src="../../images/black/{{now.code}}@1x.png"></image><!--当前天气图标--> </view> <view class="tips-wrap" id="

[MySQL]:详细MySQL8.0完整的下载安装教程

一、MySQL的介绍 MySQL是一个关系型数据库管理系统,由瑞典 MySQL AB 公司开发,属于 Oracle 旗下产品。MySQL是最流行的关系型数据库管理系统之一,在 WEB 应用方面,MySQL是最好的RDBMS (Relational Database Management System,关系数据库管理系统)应用软件之一。 MySQL是一种关系型数据库管理系统,关系数据库将数据保存在不同的表中,而不是将所有数据放在一个大仓库内,这样就增加了速度并提高了灵活性。 MySQL所使用的 SQL 语言是用于访问数据库的最常用标准化语言。MySQL 软件采用了双授权政策,分为社区版和商业版,由于其体积小、速度快、总体拥有成本低,尤其是开放源码这一特点,一般中小型和大型网站的开发都选择 MySQL作为网站数据库。 二、下载MySQL 下载网址: https://www.mysql.com/ https://dev.mysql.com/downloads/installer/ 三、下载步骤 (1)首先将MySQL的网址输入网站。 (2)点击DOWNLOADS进入,以下步骤如下图。 (3) 选择MySQL Installer for Windows。 四、MySQL的安装 要想使用MySQL,我们首先先得将MySQL安装好,下面的步骤,一步一步的完成MySQL的安装。 (1)网页找到下载好的安装包。 (2)打开安装包,选择Full,点击Next。 (3) 点击Execte,等待将其所有图标前出现绿色√,之后点击Next。 (4) 继续点击Next。 (5)点击Next。 (6) 设置密码(建议设置一个简单的,一定要记住)点击Next。 (7)按照图选择选项,点击Next。 (8) 点击Next,之后点击Execute,等待出现绿色√,点击Finish。 (9)点击Next。 (10)点击Finish。 (11)正确输入之前设置的密码,会出现如图绿色条,点击Next。 (12)点击Execute,之后出现绿色√,点击Finish。 (13)点击Next。 (14) 点击Finish,下载成功。 (15)打开文件搜索,桌面上是没有的。 (16)MySQL将下载在C盘(x86)中。 (17)打开MySQL,点击左下角的放框,输入之前设计的密码。 (18)与客户端连接。 五、修改 (1)打开C盘。 (2)找到C盘中的Program Files。 (3)找到MySQL,再找到MySQL Workbench,继续点击Workbench。 (4)打开os_utils,划到最后,找到如图鼠标位置,将“utf_8”改为"gbk",之后记得保存。 六、总结 本文详细介绍了MySQL数据库社区版(MySQL Community Server 8.0.26)的下载、安装、和客户端连接过程。读者通过本文可以学习通过网站下载和双击安装包文件,之后成功下载MySQL.

Kafka之集群搭建

1. 为什么要使用kafka集群 单机服务下,Kafka已经具备了非常高的性能。TPS能够达到百万级别。但是,在实际工作中使用时,单机搭建的Kafka会有很大的局限性。 ​ 消息太多,需要分开保存。Kafka是面向海量消息设计的,一个Topic下的消息会非常多,单机服务很难存得下来。这些消息就需要分成不同的Partition,分布到多个不同的Broker上。这样每个Broker就只需要保存一部分数据。这些分区的个数就称为分区数。​ 服务不稳定,数据容易丢失。单机服务下,如果服务崩溃,数据就丢失了。为了保证数据安全,就需要给每个Partition配置一个或多个备份,保证数据不丢失。Kafka的集群模式下,每个Partition都有一个或多个备份。Kafka会通过一个统一的Zookeeper集群作为选举中心,给每个Partition选举出一个主节点Leader,其他节点就是从节点Follower。主节点负责响应客户端的具体业务请求,并保存消息。而从节点则负责同步主节点的数据。当主节点发生故障时,Kafka会选举出一个从节点成为新的主节点。 Kafka集群中的这些Broker信息,包括Partition的选举信息,都会保存在额外部署的Zookeeper集群当中,这样,kafka集群就不会因为某一些Broker服务崩溃而中断。 2. kafka的集群架构 由章节1中对kafka集群特点的描述,我们可以大致画出kafka的集群架构图大致如下: 3. kafka集群搭建 ​ 接下来我们就动手部署一个Kafka集群,来体验一下Kafka是如何面向海量数据进行横向扩展的。 3.1 搭建kafka集群 搭建环境: 1. 准备3台虚拟机 2. 安装jdk jdk安装可参考Linux环境下安装JDK-CSDN博客 3. 关闭防火墙(实验版本关闭防火墙,生产环境开启对应端口即可) firewall-cmd --state 查看防火墙状态 systemctl stop firewalld.service 关闭防火墙 第一步: zookeeper 集群搭建 kafka依赖于zookeeper,虽然kafka内部自带了一个zookeeper,为了保证服务之间的独立性,不建议使用其内部的zookeeper,所以我们先搭建一个独立的zookeeper集群。Zookeeper是一种多数同意的选举机制,允许集群中少数节点出现故障。因此,在搭建集群时,通常都是采用3,5,7这样的奇数节点,这样可以最大化集群的高可用特性。 zk集群搭建参考:zookeeper之集群搭建-CSDN博客 根据上述文章搭建完成之后,启动zookeeper集群 第二步: 部署kafka集群 kafka服务并不需要进行选举,因此也没有奇数台服务的建议。 首先,三台机器都根据 初识Kafka-CSDN博客 中的单机服务体验,上传、解压kafka到 解压到 /app/kafka 目录下。 接下来,进入config目录,修改server.properties。这个配置文件里面的配置项非常多,下面列出几个要重点关注的配置 #broker 的全局唯一编号,不能重复,只能是数字。 broker.id=0 #数据文件地址。同样默认是给的/tmp目录。 log.dirs=/app/kafka/logs #默认的每个Topic的分区数 num.partitions=1 #zookeeper的服务地址 zookeeper.connect=192.168.31.5:2181,192.168.31.176:2181,192.168.31.232:2181 broker.id需要每个服务器上不一样,分发到其他服务器上时,要注意修改一下,比如第一台是0,第二台就是1,第三台的配置就是2。 当多个Kafka服务注册到同一个zookeeper集群上的节点,会自动组成集群。 server.properties文件中比较重要的核心配置 第三步: 启动kafka集群 bin/kafka-server-start.sh -daemon config/server.properties -daemon表示后台启动kafka服务,这样就不会占用当前命令窗口。 jps看一下启动情况: 3.2 搭建中遇到的问题 3.2.1 启动时报错 问题1描述: 启动kafka时,报没有与主机关联的地址

Python-动态烟花【附完整源码】

烟花代码 运行效果:Python动态烟花代码 import pygame from random import randint from random import uniform from random import choice import math vector = pygame.math.Vector2 # 重力变量 gravity = vector(0, 0.3) # 控制窗口的大小 DISPLAY_WIDTH = DISPLAY_HEIGHT = 800 # 颜色选项 trail_colours = [(45, 45, 45), (60, 60, 60), (75, 75, 75), (125, 125, 125), (150, 150, 150)] dynamic_offset = 1 static_offset = 3 class Firework: def __init__(self): # 随机颜色 self.colour = (randint(0, 255), randint(0, 255), randint(0, 255)) self.

LLaMA-Factory添加adalora

感谢https://github.com/tsingcoo/LLaMA-Efficient-Tuning/commit/f3a532f56b4aa7d4200f24d93fade4b2c9042736和https://github.com/huggingface/peft/issues/432的帮助。 在LLaMA-Factory中添加adalora 1. 修改src/llmtuner/hparams/finetuning_args.py代码 在FinetuningArguments中修改finetuning_type,添加target_r和init_r 修改__post_init__函数 2. 修改src/llmtuner/tuner/core/adapter.py代码 添加AdaLoraConfig 在init_adapter函数中添加一个if判断,添加位置在如红框所示: if finetuning_args.finetuning_type == "adalora": logger.info("Fine-tuning method: AdaLoRA") latest_checkpoint = None if model_args.checkpoint_dir is not None: if (is_trainable and finetuning_args.resume_lora_training) or (not is_mergeable): # continually fine-tuning checkpoints_to_merge, latest_checkpoint = model_args.checkpoint_dir[:-1], model_args.checkpoint_dir[-1] else: checkpoints_to_merge = model_args.checkpoint_dir for checkpoint in checkpoints_to_merge: model = PeftModel.from_pretrained(model, checkpoint) model = model.merge_and_unload() if len(checkpoints_to_merge) > 0: logger.info("Merged {} model checkpoint(s).".format(len(checkpoints_to_merge))) if latest_checkpoint is not None: # resume lora training or quantized inference model = PeftModel.

Win11上安卓设备与MTKClient连接失败,问题汇总,终极方法

项目场景: 使用MTKClient连接安卓设备进行POC 设备环境:Win11,已安装Python环境,下载好MTKClient工具 问题描述 安卓设备与MTKClient连接失败,无法识别到 问题表象: Preloader - [LIB]: Status: Handshake failed, retrying… 问题详见: 安卓设备与MTKClient连接失败问题记录 原因分析: MTK 驱动问题 设备关机后USB连接,设备管理器中发现下面问题 尝试方法: MTKClient官方使用介绍安装UsbDk 问题依旧:Preloader - [LIB]: Status: Handshake failed, retrying…安装Bypass utility 问题依旧:Preloader - [LIB]: Status: Handshake failed, retrying…查看了相关帖子oppo手机如何使用mtkclient解联发科Mediatek bootloader并获取rootoppo手机下载适用于 Windows 的 MediaTek USB VCOM 驱动程序(32 位和 64 位) 该驱动已过时未经微软数字签名,安装前需要禁用驱动程序强制签名。 Win11如何禁用驱动程序强制签名?驱动程序强制签名怎么关闭? 问题依旧:Preloader - [LIB]: Status: Handshake failed, retrying…考虑电脑问题,使用同机型伙伴电脑测试, 设备关机后USB连接,设备管理器中发现MediaTek PreLoader USB VCOM 在设备管理器中一会出现一会消失 问题依旧:Preloader - [LIB]: Status: Handshake failed, retrying…考虑系统问题,伙伴Win10电脑测试均无问题,那就不用Win11了!!! 问题依旧:Preloader - [LIB]: Status: Handshake failed, retrying…todo 解决方案: 提示:这里填写该问题的具体解决方案: