阿里云开发者社区
大家在互动
大家在关注
综合
最新
有奖励
免费用
一文解读:阿里云AI基础设施的演进与挑战
对于如何更好地释放云上性能助力AIGC应用创新?“阿里云弹性计算为云上客户提供了ECS GPU DeepGPU增强工具包,帮助用户在云上高效地构建AI训练和AI推理基础设施,从而提高算力利用效率。”李
Apache RocketMQ ACL 2.0 全新升级
RocketMQ ACL 2.0 不管是在模型设计、可扩展性方面,还是安全性和性能方面都进行了全新的升级。旨在能够为用户提供精细化的访问控制,同时,简化权限的配置流程。欢迎大家尝试体验新版本,并应用在
案例分析|线程池相关故障梳理&总结
本文作者梳理和分享了线程池类的故障,分别从故障视角和技术视角两个角度来分析总结,故障视角可以看到现象和教训,而技术视角可以透过现象看到本质更进一步可以看看如何避免。
给技术新人的ODPS优化建议
数据开发基本都是从陌生到熟悉,但是写多了就会发现各种好用的工具/函数,也会发现各种坑,本文分享了作者从拿到数据到数据开发到数据监控的一些实操经验。
通义灵码 AI 编码实战7讲
数据管理的艺术:PolarDB开源版详评与实战部署策略(一)
PolarDB-X是阿里巴巴自研的高性能云原生分布式数据库,基于共享存储的Shared-nothing架构,支持MySQL生态,具备金融级高可用、分布式水平扩展、HTAP混合负载等能力。它通过CN(计
AIGC+ 软件开发新范式
在AI 热度持续上升的当下,阿里云推出AI智能编码助手—通义灵码。通义灵码是一款基于阿里云通义代码大模型打造的智能编码助手,基于海量优秀开源代数据集和编程教科书训练,为开发者带来高效、流畅的编码体验。
AI Agent动手实践训练营
数据管理的艺术:PolarDB开源版详评与实战部署策略(二)
PolarDB-PG是阿里云的一款云原生关系型数据库,100%兼容PostgreSQL,支持Oracle语法,采用Shared-Storage存储计算分离架构,提供极致弹性、毫秒级延迟的HTAP能力。
百炼成金-大金融模型新篇章
百炼必定成金,新质生产力会催生新质劳动力,谨以此文抛砖引玉,希望与业内的各位朋友一同探讨如何积极拥抱并运用大模型技术,以应对和驾驭不断变化的市场环境,实现科技金融持续稳定的提质增效和创新发展,携手开启
计算新品速递 | 专为高性能计算而生,HPC优化实例正式商业化
如何连接宜搭应用的数据库,读取指定几张表的数据,通过自己程序的算法处理后把结果数据写入到另一张表中
如何连接宜搭应用的数据库读取指定几张表的数据通过自己程序的算法处理后把结果数据写入到宜搭应用的另一张表中
通义灵码技术解析,打造 AI 原生开发新范式
本文第一部分先介绍 AIGC 对软件研发的根本性影响,从宏观上介绍当下的趋势;第二部分将介绍 Copilot 模式,第三部分是未来软件研发 Agent 产品的进展。
【技术解析 | 实践】部署Kubernetes模式的Havenask集群
本次分享内容为havenask的kubernetes模式部署,由下面2个部分组成(部署Kubernetes模式Havenask集群、 Kubernetes模式相关问题排查),希望可以帮助大家更好了解和
函数计算助力领健信息为“看牙”注入 AI 活力
口腔治疗+函数计算=效率提升🚀 领健作为业界领先的口腔机构,面向口腔诊所提供正畸算法,但早期的算法部署遇到较多问题,因此在对比了阿里云的多个云产品之后,最终选择了函数计算。 通过将 GPU 计算负载
容器内存可观测性新视角:WorkingSet 与 PageCache 监控
本文介绍了 Kubernetes 中的容器工作内存(WorkingSet)概念,它用于表示容器内存的实时使用量,尤其是活跃内存。
PolarDB-X 存储引擎核心技术 | 索引回表优化
数据库系统为了高效地存储、检索和维护数据,采用了多种不同的数据组织结构。不同的组织结构有其特定的用途和优化点,比如提高查询速度、优化写入性能、减少存储空间等,目前 PolarDB-X 采用了 B-Tr
【深入浅出】阿里自研开源搜索引擎Havenask日志查询
本次分享内容为Havenask的日志查询,文章包含了具体查询步骤和举例、实操演示,希望可以帮助大家更好的使用Havenask。
【技术解析 | 实践】Havenask问题排查
本次分享内容为Havenask的问题排查,由下面4个部分组成(Hape运维脚本问题、集群相关问题、表相关问题、数据写入与查询问题),希望可以帮助大家更好了解和使用Havenask。
查询提速11倍、资源节省70%,阿里云数据库内核版 Apache Doris 在网易日志和时序场景的实践
网易的灵犀办公和云信利用 Apache Doris 改进了大规模日志和时序数据处理,取代了 Elasticsearch 和 InfluxDB。Doris 实现了更低的服务器资源消耗和更高的查询性能,相
【预告】阿里云计算新品速递:HPC优化实例商业化发布
5月30日14:00,将推出专为云上高性能计算设计的HPC优化实例hpc8ae,旨在解决现有云计算基础设施对HPC应用优化不足的问题,提供经济高效的仿真解决方案,提升计算效率,加速业务创新。直播中,阿
对话阿里云云原生产品负责人李国强:推进可观测产品与OpenTelemetry开源生态全面融合
阿里云宣布多款可观测产品全面升级,其中,应用实时监控服务 ARMS 在业内率先推进了与 OpenTelemetry 开源生态的全面融合,极大丰富了可观测的数据类型及规模,大幅增强了 ARMS 核心能力
【技术解析 | 实践】Havenask文本索引
本次分享内容为Havenask的文本索引,本次课程主要分为两部分内容,首先简要介绍倒排索引的数据结构和文本索引的特性,然后进行对文本索引配置不同分析器的实践,希望通过分享帮助大家更好了解和使用Have
智研未来,直击 AI DevOps,阿里云用户交流日杭州站来啦!
在这个技术日新月异的时代,云上智能化DevOps正以前所未有的速度推动企业创新边界,重塑软件开发的效率与品质。 为深入探索这一变革之路,我们诚邀您参与我们的专属闭门技术沙龙,携手开启一场关于云上智能
五步定位性能瓶颈
在进行性能测试前,了解数据流向和系统架构至关重要。绘制数据流向图以识别潜在瓶颈,使用“水池模型”分析系统架构,优化测试流程,以提高测试效率。日志分析是诊断性能问题的关键,通过快速定位问题、保持环境一致
MEV攻击科普:揭秘、危害与防护策略
MEV攻击是加密货币中的现象,攻击者利用信息不对称和交易特权获取超额利润。这种攻击影响用户体验,破坏市场公平,威胁系统稳定并浪费资源。常见形式包括抢先交易、三明治攻击等。避免MEV攻击需采取隐私保护、
如何通过AI技术提升内容生产的效率和质量
利用AI提升内容生产效率涉及智能策划(数据分析、热点追踪)、自动化生成(文字、多媒体)、编辑优化(语法检查、事实核查)、个性化推荐、内容审核和合规性检查,以及数据分析反馈。AI通过减少人力成本、增强质
基于通义灵码完成 Hello World 上手实操
通过本实践课程,你将在通义灵码智能编码助手的能力下,智能开发一个web服务程序显示Hello World。本实践旨在了解编码助手帮你快速开发0到1的可运行程序,感受AI帮你提效的体验,感受通义灵码文生
飞天发布时刻|阿里云可观测全速演进
5 月 22 日 10:00,阿里云飞天发布时刻,阿里云应用实时监控服务 ARMS 宣布全面升级。这次发布不仅标志着阿里云技术实力的演进,更是对企业需求深刻洞察后的创新实践。
欢迎报名 Apache Seata (incubating) 开源之夏
Apache Seata (incubating) 邀请学生参加 2024 年开源之夏活动,报名时间为 4 月 30 日至 6 月 3 日。该项目旨在培养分布式事务领域的开发者,参与者将远程协作并有机
通义灵码实战系列:一个新项目如何快速启动,如何维护遗留系统代码库?
以编码助手形态来帮助开发者提质、提效的通义灵码,自从入职阿里云后便深受广大同事的欢迎,一起通过多个实战场景演示感受它的工作能力吧: 01/ 使用 Spring Boot 创建一个新项目 02/ 维护
上海站丨飞天技术沙龙 Serverless + AI 专场开启报名!
"飞天技术沙龙——Serverless 技术实践营"将于2024年5月31日举行,聚焦Serverless在AI中的应用。活动包括演讲、实操,探讨Serverless演进趋势、AI应用开发及降低成本等
9 个开源项目、25 个课题可选丨欢迎报名阿里云云原生开源之夏
2024 开源之夏,阿里云云原生应用平台团队开放了包括 Apache Dubbo/Apache RocketMQ/Apache Seata/Higress/iLogtail /Nacos/Sentin
Llama 3开源!魔搭社区手把手带你推理,部署,微调和评估
Meta发布了 Meta Llama 3系列,是LLama系列开源大型语言模型的下一代。在接下来的几个月,Meta预计将推出新功能、更长的上下文窗口、额外的模型大小和增强的性能,并会分享 Llama
Spring AI 抢先体验,5 分钟玩转 Java AI 应用开发
Spring Cloud Alibaba AI 以 Spring AI 为基础,并在此基础上提供阿里云通义系列大模型全面适配,让用户在 5 分钟内开发基于通义大模型的 Java AI 应用。
Nacos求助以postgresql作数据源,如何操作?
Nacos求助docker 部署 nacos2.2.0使用postgresql做数据源启动报错Property: db.pool.config.driver-class-nameValue: org
Nacos服务端+springcloud应用都是部署在k8s怎么办?
Nacos服务端springcloud应用都是部署在k8s但试过出现在nacos里的应用实例信息不一致导致rpc通信异常了
springcloud应用异常报错连不上nacos,出现这个报错的原因是什么?
springcloud应用异常报错连不上nacos报错信息The IPv4 address(“nacos.xxxx.local“) is incorrect 出现这个报错的原因是什么 nacos服务
spring.cloud.nacos.confi.password密码是naocs控制平台的密码嘛?
spring.cloud.nacos.config.password密码是naocs控制平台的密码嘛
设置nacos密码是需要弄这两个地方的嘛?
spring.cloud.nacos.config.username用户名spring.cloud.nacos.config.password密码 spring.cloud.nacos.discov
在nacos管理页面中的节点列表中查看会多出一台机器,这是为什么呀?
请问各位大佬我的nacos集群使用了3台机器但是在nacos管理页面中的节点列表中查看会多出一台机器这是为什么呀同时 cluster.conf也被自动修改了
nacos.core.auth.enabled=true开启鉴权 是否需要关闭?
nacos.core.auth.enabledtrue开启鉴权 是否需要关闭关闭使用user-agent判断服务端请求并放行鉴权的功能nacos.core.auth.enable.userAgent
nacos这个地址是干嘛有,有ip企图攻击这个地址,如何防御?
http://serverIp:8848/nacos/v1/cs/configs/listener nacos这个地址是干嘛有有ip企图攻击这个地址如何防御
Nacos这个拿到token了,怎么验证是否正确?
ERROR 31332 --- [2f-afa2a22ec646] c.a.n.client.config.impl.ClientWorker : [fixed-0.0.0.0_8848-26
我看这个漏洞建议修复升级nacos到1.4.1,但是我的版本就是1.4.1如何修复?
如何修复我看这个漏洞建议修复升级nacos到1.4.1但是我的版本就是1.4.1按建议修改以后应用启动报错4031.4.1 很古老了还有很多漏洞等着呢...谁能帮我解决这个认证是怎么搞的
nacos2.2.3 版本 与dubbo集成,程序中报怎么办?
nacos2.2.3 版本 与dubbo集成程序中报org.apache.dubbo.registry.nacos.NacosRegistry - [DuBBO] token expired!, d
请问modelscope在vllm部署中遇到过类似 问题吗?
请问modelscope在vllm部署中遇到过类似 SIGSEGV received at time1716731787 on cpu xx 的问题吗 NCCL_DEBUGINFORAY_mem
modelscope代码下载Qwen/Qwen-VL-Chat-Int4,下载完后大小就2.8M?
通过modelscope代码下载Qwen/Qwen-VL-Chat-Int4下载完后大小就2.8MB咋回事
modelscope的Qwen1.5-14B-Chat-GPTQ-Int4可以修改接受最大长度吗?
由于算力有限24G的显卡只能跑Qwen1.5-14B-Chat-GPTQ-Int4但rerank之后的prompt还是比较大大概有1万个汉字Qwen1.5-14B-Chat-GPTQ-Int4好像就
二进制的modelscope文件,有什么办法跳过已下载好的文件吗?
使用modelscope包下载模型时老是中断于是我手工下载了模型的其他部分文件但再次启动modelscope每次还是从中断的地方继续下载所以我猜测是不是有一个任务记录文件当我把模型目录下的 .msc
modelscope创建模型后,这边需要重新授权才能用,支持吗?
客户如果在魔塔临时在创建个模型就会自动在pai eas 创建对应的eas服务导致产生计费客户想把授权关了比如魔塔modelscope创建模型后这边需要重新授权才能用支持吗
图中代码申请的apikey 替换后显示没有权限进行modelscope调用是什么原因呢?
https://www.modelscope.cn/studios/iic/MemeMaster 图中代码申请的apikey 替换后显示没有权限进行modelscope调用是什么原因呢
在modelscope脚本里面可以正常推理,但是使用flask封闭成服务之后,速度慢了几十倍?
在脚本里面是2s在flask服务里面是40s昨天 19:26pipline的textrecognition模型在modelscope脚本里面可以正常推理但是使用flask封闭成服务之后速度慢了几十倍
推理时候报错,说没有图中modelscope文件,怎么处理?
推理时候报错说没有图中modelscope文件怎么处理 !/bin/bash 分布式训练指定显卡 export CUDA_DEVICE_MAX_CONNECTIONS1DIRpwd expo