@@ -2,57 +2,100 @@ test optimize precise-output
2
2
set opt_level=speed
3
3
target x86_64
4
4
5
- function %test1 (i8, i8) -> i8 {
5
+ function %fold_and_xor_not1 (i8, i8) -> i8 {
6
6
block0(v0: i8, v1: i8):
7
7
v2 = bnot v1
8
8
v3 = bxor v0, v2
9
9
v4 = band v3, v0
10
10
return v4
11
11
}
12
12
13
- ; function %test1 (i8, i8) -> i8 fast {
13
+ ; function %fold_and_xor_not1 (i8, i8) -> i8 fast {
14
14
; block0(v0: i8, v1: i8):
15
15
; v5 = band v0, v1
16
16
; return v5
17
17
; }
18
18
19
- function %test2 (i16, i16) -> i16 {
19
+ function %fold_and_xor_not2 (i16, i16) -> i16 {
20
20
block0(v0: i16, v1: i16):
21
21
v2 = bnot v1
22
22
v3 = bxor v0, v2
23
23
v4 = band v3, v0
24
24
return v4
25
25
}
26
26
27
- ; function %test2 (i16, i16) -> i16 fast {
27
+ ; function %fold_and_xor_not2 (i16, i16) -> i16 fast {
28
28
; block0(v0: i16, v1: i16):
29
29
; v5 = band v0, v1
30
30
; return v5
31
31
; }
32
32
33
- function %test3 (i32, i32) -> i32 {
33
+ function %fold_and_xor_not3 (i32, i32) -> i32 {
34
34
block0(v0: i32, v1: i32):
35
35
v2 = bnot v1
36
36
v3 = bxor v0, v2
37
37
v4 = band v3, v0
38
38
return v4
39
39
}
40
40
41
- ; function %test3 (i32, i32) -> i32 fast {
41
+ ; function %fold_and_xor_not3 (i32, i32) -> i32 fast {
42
42
; block0(v0: i32, v1: i32):
43
43
; v5 = band v0, v1
44
44
; return v5
45
45
; }
46
46
47
- function %test4 (i64, i64) -> i64 {
47
+ function %fold_and_xor_not4_1 (i64, i64) -> i64 {
48
48
block0(v0: i64, v1: i64):
49
49
v2 = bnot v1
50
50
v3 = bxor v0, v2
51
51
v4 = band v3, v0
52
52
return v4
53
53
}
54
54
55
- ; function %test4(i64, i64) -> i64 fast {
55
+ ; function %fold_and_xor_not4_1(i64, i64) -> i64 fast {
56
+ ; block0(v0: i64, v1: i64):
57
+ ; v5 = band v0, v1
58
+ ; return v5
59
+ ; }
60
+
61
+ function %fold_and_xor_not4_2(i64, i64) -> i64 {
62
+ block0(v0: i64, v1: i64):
63
+ v2 = bnot v1
64
+ v3 = bxor v2, v0
65
+ v4 = band v3, v0
66
+ return v4
67
+ }
68
+
69
+ ; function %fold_and_xor_not4_2(i64, i64) -> i64 fast {
70
+ ; block0(v0: i64, v1: i64):
71
+ ; v5 = band v0, v1
72
+ ; return v5
73
+ ; }
74
+
75
+
76
+ function %fold_and_xor_not4_3(i64, i64) -> i64 {
77
+ block0(v0: i64, v1: i64):
78
+ v2 = bnot v1
79
+ v3 = bxor v0, v2
80
+ v4 = band v0, v3
81
+ return v4
82
+ }
83
+
84
+ ; function %fold_and_xor_not4_3(i64, i64) -> i64 fast {
85
+ ; block0(v0: i64, v1: i64):
86
+ ; v5 = band v0, v1
87
+ ; return v5
88
+ ; }
89
+
90
+ function %fold_and_xor_not4_4(i64, i64) -> i64 {
91
+ block0(v0: i64, v1: i64):
92
+ v2 = bnot v1
93
+ v3 = bxor v2, v0
94
+ v4 = band v0, v3
95
+ return v4
96
+ }
97
+
98
+ ; function %fold_and_xor_not4_4(i64, i64) -> i64 fast {
56
99
; block0(v0: i64, v1: i64):
57
100
; v5 = band v0, v1
58
101
; return v5
0 commit comments