IT之家 7 月 17 日新闻 ,港科割香港科技大学团队开拓出一款名为 Semantic-SAM 的大推图像分割 AI 模子,比照 Meta 此前宣告的出图 SAM 模子,Semantic-SAM 具备更强的像分粒度以及语义功能,可能在差距粒度级别上分割以及识别物体 ,港科割并为分割出的大推实体提供语义标签 。
据悉,出图Semantic-SAM 基于 Mask DINO 框架妨碍开拓,像分其模子妄想主要改善在 decoder 部份,港科割同时反对于通用分割以及交互式分割 。大推
钻研团队经由接管解耦的出图物体分类以及部件分类措施,学习物体以及部件的像分语义信息,从而实现为了多粒度分割使命以及交互分割使命的港科割优化 。试验服从表明,大推Semantic-SAM 在分割品质以及粒度可控性方面优于 Meta 的出图 SAM 模子。
该名目当初已经在 GitHub 中宣告,论文也同时上传至 ArXiv 中 ,有兴趣的IT之家小过错们可从前往魔难。
广告申明:文内含有的对于外跳转链接(搜罗不限于超链接 、二维码、口令等方式),用于传递更多信息 ,节约甄选光阴,服从仅供参考,IT之家所有文章均搜罗本申明。