IT之家 6 月 25 日消息,最新发表在 arXiv 的研究论文指出,包括 GPT-4V、GPT-4o 和 Gemini 1.5 在内的大部分主流多模态 AI 模型,处理用户的多模态输入(例如一起输入图片和文本内容)之后,输出结果并不安全。
![](http://n.sinaimg.cn/spider20240625/214/w525h489/20240625/4fd1-515fd3b54e92862a15e347d32c8132b3.jpg)
这项研究标题为《跨模态安全调整》(Cross-Modality Safety Alignment),提出了一个全新的“安全输入但不安全输出”(SIUO),涉及道德、危险行为、自残、侵犯隐私、信息误读、宗教信仰、歧视和刻板印象、争议性话题以及非法活动和犯罪等 9 个安全领域。
![](http://n.sinaimg.cn/spider20240625/282/w685h397/20240625/8fe5-285d20e2b9585ceae20a5e36e15bbf6c.png)
研究人员说,大型视觉语言模型(LVLM)在接收多模态输入时很难识别 SIUO 类型的安全问题,在提供安全响应方面也遇到困难。
在接受测试的 15 个 LVLM 中,只有 GPT-4v(53.29%)、GPT-4o(50.9%)和 Gemini 1.5(52.1%)的得分高于 50%。
研究人员表示为了解决这个问题,需要开发 LVLM,以便将所有模式的见解结合起来,形成对情景的统一理解。它们还需要能够掌握和应用现实世界的知识,如文化敏感性、道德考虑因素和安全隐患等。
研究人员还指出,LVLMs 需要能够通过对图像和文本信息的综合推理,理解用户的意图,即使文本中没有明确说明。
![](http://n.sinaimg.cn/spider20240625/308/w718h390/20240625/1a73-7a55e53d227b86f81318d99cfb5ade57.png)
![](http://n.sinaimg.cn/spider20240625/323/w691h432/20240625/5e8c-c02a81e84f5d38c2faf7b5c7de1884a6.png)
![](http://n.sinaimg.cn/spider20240625/633/w681h752/20240625/d139-7616808ab28463d08f109e3d4b6d385c.png)
IT之家附上参考地址
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
新浪科技公众号
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)