Similarity of Binaries Across Optimization Levels and Obfuscation(ESORICS 2020)
现有的二进制相似度检测工作并没有很好的解决编译优化和混淆带来的影响,所以作者提出了
IMOPT
来重新优化代码,用于提高代码相似性检测的准确率。该方法在测试集上和原本的Asm2vec相比,将精度提高了22.7%,并且可以缓解ollvm混淆带来的影响
Introduction#
现有工作的不足:
- 静态方法:只统计静态特征,很难揭示语义特征
- 动态方法:一旦加入混淆,junk code等会严重影响代码相似性检测
所以作者提出了IMOPT
方法,通过re-optimize lifted binary
缓解编译优化和混淆对代码相似性检测的影响,提高准确率。
由于作者是在二进制上进行这项工作,因此不得不面对下面两个主要的挑战:
- 挑战1:对二进制代码的优化需要准确的指针分析,然而编译过程删除了很多变量信息。即使是编译器,在做指针分析时,也会出错:例如对于下面的代码,不优化时会输出0,而使用
O2
优化时,会输出1(这是真的,我帮大家试过了)。
1 |
|
- 挑战2:在指针分析中需要对成本和精度进行折中考虑。
对于上面的两个挑战,作者也在文中提出了相应的解决方案:
对于挑战1:集成精确的指针分析框架,并实现了
canonicalization
和elimination
两类优化,这两类对相似性比较的影响最大。canonicalization
:将逻辑上等价的表达式转换成统一形式elimination
:通过可达性分析删除无用或不可达的代码**对于挑战2:**提出了
immediate SSA(static single-assignment) transforming algorithm
(立即的SSA转换算法),将变量或指针即时的转换为SSA
形式。采用SSA
,是速度和精确度权衡的结果
主要贡献:
immediate SSA
,O(1)
复杂度的快速准确的指针分析- 指针分析框架
- 二进制代码重优化方法
IMOPT
实现
基本概念#
SSA#
静态单赋值:
1 | x = 1; x1 = 1; |
好处是一个use
只有一个def
,方便做def-use
分析。同名变量有相同的值,变量的使用只有唯一的定义
Dominator#
控制节点:
n dominates m (n dom m)
:从entry
节点到m
的所有路径都需要经过节点n
,称n
是m
的dominator
Dominance Frontier#
Dominance Frontier
表示控制流图中聚合的点
对于图节点N
,DF(N)
是一个集合,该集合包含Z
,如果Z
满足:
N
是Z
某个前驱节点的控制节点N
不是Z
的控制节点
即$DF(N) = {Z | (\exists p \in Pred(Z)) N \ dom \ p \land !N \ dom\ Z }$
这个东西可以用来实现最小SSA
,并引入PHI
节点。例如通过下面的控制流图
我们可以得到Dominance Frontier
如下
即块2和块8和块9中的对变量x
的定义会在块5处聚合。
PHI function#
为了引入最小SSA,需要利用Dominance Frontier
加入PHI节点,示例如下
对于左侧示例,我们可以得到Dominance Frontier
并在聚合处加入PHI节点
一些术语#
前向块(
Forward Block
),后向块(Backward Block
),回边(Back edge
):如果有a dom b,那么边a->b
叫做回边,回边指向的块为后向块,其余都是前向块前向定义(
Forward Definition
),后向定义Backward Defination
:回边起点如果存在对回边终点的变量定义,则为后向定义,否则为前向定义反向可达图(
Backward reachable graph
):感觉就是CFG,然后将边反向
即时性#
即时性是动态地将代码转换成SSA
形式并有效维护信息的关键。
如果算法在处理时满足下面两个不变量,那么该算法具有即时性:
- 全局不变性:处理一个基本块前,对于块中每个变量v:1)如果只有一个
def
可以到达该基本块,且基本块前无PHI节点,应记录v的下标;2)否则,应该插入PHI节点,且PHI节点中下标应与其他def下标不同。 - 局部不变性:处理一个基本块后,这个基本块中使用的变量只能存在一个
def
点可以到达use
点,且下标需要一致 。
全局不变性确保每个传入的定义都被记录,且插入必要的PHI
节点
局部不变性确保每个use
都与def
关联
这两点也保证了SSA
的正确性
**演绎条件(Condition 1) **:算法在CFG的逆后续(Reverse post-order
)遍历中进行,在处理块i前,保证每个已处理的块j都满足即时性(j<i)
逆后续遍历:
1 | def postorder(graph, root): |

对于上述示例,有:
- Pre-order: A, C, B, D, E, T
- Post-order: D, B, E, C, T, A
- Reverse-post-order(RPO): A, T, C, E, B, D
示例结果不太符合我们习惯,比如是逆时针访问还是按字母顺序访问,简单来说逆后续遍历就是后续遍历的反向。在SSA
图中,这样保证了在处理时use
肯定在def
后
一些引理#
Symbols B, D, S, V are used to represent the set of blocks, definitions, statements and variables.
IMSSA 算法#
主函数#
在实现IMSSA算法时,会维护下列信息
Symbols B, D, S, V are used to represent the set of blocks, definitions, statements and variables.
即def-use
边,可达边,Dominating def,最大SSA下标数。
算法按照RPO
顺序对函数进行处理,如下
主函数十分简洁明了,不需要过多解释
找SSA的use和def点#
补充:
1 | RHS: 赋值操作的右侧,例如 x = y + z中的 y 和 z |
是正常的SSA生成的算法,不是新方法
IF
:s是一个phi
函数,且s属于基本块bi
,遍历所有可以到达bi
的块bj
,修改块bj
RHS中对变量v使用的下标ELSE
:否则,修改bi
中RHS对变量v的下标
LINE2
:LHS中找到变量vLINE3
:变量v的下标++LINE4
:替换变量名LINE5-6
:对RHS中用到的变量,加入def-use
对集合DU
中LINE7
:将对v的定义加入Vdef
中
对单条语句state的处理#
LINE2
:找use点,改变量名LINE3
:指针分析,后面会将具体的算法LINE4-6
:找def点,改变量名
def传播和可达性传播#
PROPAGATE
会在基本块b
的dominance frontiers
引入PHI节点,并且设置该PHI节点为未访问状态
PropagateReachability
是为了看当前块是否可以执行到该块的后继(无用分支),当处理到后继节点时,会设置PHI节点为访问过的状态。
我感觉这两个函数可以理解为PHI节点会在dominator 节点引入,并且在dominated节点处理。
前向块分析#
根据引理2和引理3,实现前向块分析如下
反向块分析#
根据引理4,实现反向块分析如下
LINE2
:找包含回边的子图,将反向块变换成前向块LINE3
:得到RPO序列LINE4-LINE6
:按照前向块处理该子图
和IMSSA
很像,只是不处理已经处理过的基本块
二进制优化框架#
框架试图通过正规化和删除无用代码,来缓解编译优化和混淆对相似代码检测的影响,由于框架是由指针分析驱动的,所以它应该对基于数据依赖的代码转换具有鲁棒性。
集成指针分析#
在实现IMSSA过程中,需要加入指针分析,除了E:V(Dominating def)
和C:V(最大SSA下标数)
,还需要维护D:V->E
(变量->def表达式)和A:E->V
(地址表达式->变量)
LINE 3-4
:如果是变量,得到该变量的表达式LINE 5
:遍历表达式中的变量,进行指针分析LINE 8
:对分析后的语句进行归一化(逻辑)LINE 10-11
:对指针变量进行处理
我们知道在IR中,STORE
和LOAD
都是对地址进行操作的,因此在实现指针分析时,主要关注这两个指令。
正规化和死代码删除#
正规化将等价但不同的表达式转换成统一形式,从而保持相似性。同时可以实现多级联合消除,例如公共子表达式消除等,进而去除无用代码
- 正规化:收集了44个基本的消除规则(参考ollvm),例如$(x \And c ) \oplus (x|c) \iff x \oplus c,(x \And c) |(x \And !c) \iff x$
- 死代码删除:在根据def-use分析和可达性分析,删除无用代码
实现和评估#
作者在二进制分析平台BAP
上以插件形式实现IMOPT
过程:使用BAP
将二进制转换到它的IR上BIR
,然后用插件实现IMOPT
过程
为了对比实验,也使用Mcsema
将二进制转换到LLVM-IR
上进行re-optimize
(对比IMOPT优化和LLVM-OPT)的效果
对比Asm2Vec#
1 | BAP IR -> IMOPT -> new binarys -> Asm2vec |
通过和Asm2Vec
对比,IMOPT
将准确率提高了近20%
抗混淆性能#
ollvm回顾
-sub
:指令混淆
-bcf
:引入虚假控制流:在原来的控制流图上,通过加入条件跳转语句跳转到一个原来的基本块或者是一个虚假的基本块,并最终跳转回条件跳转语句,引入循环结构,改变控制流图。
示例如下:
1 | void f(int x){ |
引入虚假控制流前
引入虚假控制流后
-flat
:控制流平坦化:使用一个主分发块,通过条件控制分别进入不同的基本块,然后再回到主分发块,虽然逻辑和原来的程序相同,但分析起来更加复杂,类似于虚拟机
对上面函数的控制流平坦化结果如下:
使用ollvm 4.0
混淆后进行测试,主要测试了-sub
,-bcf
,-flat
选项,结果如下:
1 | BAP IR -> IMOPT -> new binarys -> Asm2vec |
指针分析效率对比#
和SDA(the most efficient approach that supports both pointer and reachability analysis)
进行了比较,速度得到了大大提升(15.7x
)。
总结#
我感觉这个东西虽然看起来艰涩难懂,但其实和传统的SSA算法区别没有很大,且对于最重要的指针分析作者并未提供十分有效的细节
另外有两个点值得去思考:
- 第一点:对于ollvm,有很多人做去混淆等相关工作了,看得出来这项工作有专门针对ollvm去做研究(比如复杂逻辑的缩减),不知道对于其他的混淆方法,效果是否有对ollvm的提升那么明显
- 第二点是我自己也不明白的,文中指出即使是编译器对指针分析后优化也会出错,但从算法上看或者也没有案例说明文中的算法不会出现类似的问题