Meta发布基于Code Llama的LLM编译器:优化代码大小、反汇编

Meta发布基于Code Llama的LLM编译器:优化代码大小、反汇编
2024年06月28日 15:31 砍柴网

6 月 28 日消息,Meta 官方在 X 平台宣布推出 LLM 编译器,这是一个基于 Meta Code Llama 构建的模型家族,具有额外的代码优化和编译器功能。这些模型可以模拟编译器,预测代码大小的最佳传递,并可反汇编代码,可以针对新的优化和编译器任务进行微调。

Meta 在 HuggingFace 上公开了 LLM 编译器的 7B 和 13B 模型,采用宽松的许可协议,允许用于研究和商业用途。

研究人员在论文中表示,LLM 在各种软件工程和编码任务中展示其能力,然而在代码和编译器优化领域的应用仍然未被充分探索。为了解决这一问题,Meta 引入了 LLM 编译器,这是一个专为代码优化任务设计的预训练模型套件。

LLM 编译器模型在包含 5460 亿个 LLVM-IR 和汇编代码标记的庞大语料库上进行了训练,并经过指令微调以解释编译器行为,旨在为学术研究人员和行业从业者在编译器优化方面的进一步研究和开发提供一个可扩展的、具有成本效益的基础。

LLM 编译器在代码大小优化方面取得了显著成果。在测试中,该模型的优化潜力达到了自动调整搜索的 77%,这一结果可以显著缩短编译时间,提高各种应用的代码效率。

【来源:IT之家

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片