Skip to content
GitLab
Explore
Projects
Groups
Topics
Snippets
Projects
Groups
Topics
Snippets
/
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in
Toggle navigation
Menu
BC
public
external
libvpx
Commits
4cabbca4
Commit
4cabbca4
authored
11 years ago
by
Johann
Committed by
Gerrit Code Review
11 years ago
Browse files
Options
Download
Plain Diff
Merge "vp9: neon: optimise convolve8_horiz functions"
parents
b89eef8f
b84dc949
v1.14.0-linphone
1.4.X
feature/update_to_v1.9.0-linphone
feature/uwp_nuget
forest
frame_parallel
highbitdepth
indianrunnerduck
javanwhistlingduck
khakicampbell
linphone
linphone-android
linphone-old
longtailedduck
m31-baseline
m49-2623
m52-2743
m54-2840
m56-2924
m66-3359
m68-3440
mandarinduck
mcw
mcw2
nextgen
nextgenv2
pcs-2013
playground
sandbox/Jingning/experimental
sandbox/Jingning/transcode
sandbox/Jingning/vpx
sandbox/aconverse@google.com/ansbench
sandbox/debargha/playground
sandbox/hkuang/frame_parallel
sandbox/hkuang@google.com/decode
sandbox/jimbankoski@google.com/proposed-aom
sandbox/jingning@google.com/decoder_test_suite
sandbox/jingning@google.com/experimental
sandbox/jzern@google.com/test
sandbox/wangch@google.com/vp9
sandbox/yaowu@google.com/mergeaom
stable-vp9-decoder
v1.12.0-linphone
v1.6.1_linphone
v1.7.0-linphone
v1.9.0-linphone
v1.9.0
v1.9.0-rc1
v1.8.2
v1.8.1
v1.8.0
v1.7.0
v1.6.1
v1.6.0
v1.5.0
v1.4.0
v1.3.0
No related merge requests found
Changes
2
Hide whitespace changes
Inline
Side-by-side
Showing
2 changed files
vp9/common/arm/neon/vp9_convolve8_avg_neon.asm
+56
-31
vp9/common/arm/neon/vp9_convolve8_avg_neon.asm
vp9/common/arm/neon/vp9_convolve8_neon.asm
+55
-30
vp9/common/arm/neon/vp9_convolve8_neon.asm
with
111 additions
and
61 deletions
vp9/common/arm/neon/vp9_convolve8_avg_neon.asm
+
56
−
31
View file @
4cabbca4
...
@@ -66,46 +66,64 @@
...
@@ -66,46 +66,64 @@
vld1.s16
{
q0
}
,
[
r5
]
; filter_x
vld1.s16
{
q0
}
,
[
r5
]
; filter_x
add
r8
,
r1
,
r1
,
lsl
#
1
; src_stride * 3
sub
r8
,
r1
,
r1
,
lsl
#
2
; -src_stride * 3
add
r8
,
r8
,
#
4
; src_stride * 3 + 4
add
r8
,
r8
,
#
4
; -src_stride * 3 + 4
rsb
r8
,
r8
,
#
0
; reset for src
add
r4
,
r3
,
r3
,
lsl
#
1
; dst_stride * 3
sub
r4
,
r3
,
r3
,
lsl
#
2
; -dst_stride * 3
sub
r4
,
r4
,
#
4
; dst_stride * 3 - 4
add
r4
,
r4
,
#
4
; -dst_stride * 3 + 4
rsb
r4
,
r4
,
#
0
; reset for dst
sub
r9
,
r1
,
#
8
; post increment for src load
rsb
r9
,
r6
,
r1
,
lsl
#
2
; reset src for outer loop
sub
r9
,
r9
,
#
7
rsb
r1
,
r6
,
r1
,
lsl
#
2
; reset src for outer loop
rsb
r12
,
r6
,
r3
,
lsl
#
2
; reset dst for outer loop
rsb
r12
,
r6
,
r3
,
lsl
#
2
; reset dst for outer loop
mov
r10
,
r6
; w loop counter
mov
r10
,
r6
; w loop counter
loop_horiz
loop_horiz_v
vld1.8
{
d24
}
,
[
r0
]
!
vld1.8
{
d24
}
,
[
r0
],
r1
vld3.u8
{
d28
[
0
],
d29
[
0
],
d30
[
0
]
}
,
[
r0
],
r9
vld1.8
{
d25
}
,
[
r0
],
r1
vld1.8
{
d26
}
,
[
r0
],
r1
vld1.8
{
d25
}
,
[
r0
]
!
vld1.8
{
d27
}
,
[
r0
],
r8
vld3.u8
{
d28
[
1
],
d29
[
1
],
d30
[
1
]
}
,
[
r0
],
r9
vld1.8
{
d26
}
,
[
r0
]
!
vld3.u8
{
d28
[
2
],
d29
[
2
],
d30
[
2
]
}
,
[
r0
],
r9
vld1.8
{
d27
}
,
[
r0
]
!
vld3.u8
{
d28
[
3
],
d29
[
3
],
d30
[
3
]
}
,
[
r0
],
r8
vtrn.16
q12
,
q13
vtrn.16
q12
,
q13
vtrn.8
d24
,
d25
vtrn.8
d24
,
d25
vtrn.8
d26
,
d27
vtrn.8
d26
,
d27
; extract to s16
pld
[
r0
,
r1
,
lsl
#
2
]
vmovl.u8
q8
,
d24
vmovl.u8
q8
,
d24
vmovl.u8
q9
,
d25
vmovl.u8
q9
,
d25
vmovl.u8
q10
,
d26
vmovl.u8
q10
,
d26
vmovl.u8
q11
,
d27
vmovl.u8
q11
,
d27
vtrn.32
d28
,
d29
; only the first half is populated
; save a few instructions in the inner loop
vswp
d17
,
d18
vmov
d23
,
d21
add
r0
,
r0
,
#
3
loop_horiz
add
r5
,
r0
,
#
64
vld1.32
{
d28
[]
}
,
[
r0
],
r1
vld1.32
{
d29
[]
}
,
[
r0
],
r1
vld1.32
{
d31
[]
}
,
[
r0
],
r1
vld1.32
{
d30
[]
}
,
[
r0
],
r8
pld
[
r5
]
vtrn.16
d28
,
d31
vtrn.16
d29
,
d30
vtrn.8
d28
,
d29
vtrn.8
d31
,
d30
pld
[
r5
,
r1
]
; extract to s16
vtrn.32
q14
,
q15
vmovl.u8
q12
,
d28
vmovl.u8
q12
,
d28
vmovl.u8
q13
,
d30
vmovl.u8
q13
,
d29
pld
[
r5
,
r1
,
lsl
#
1
]
; slightly out of order load to match the existing data
; slightly out of order load to match the existing data
vld1.u32
{
d6
[
0
]
}
,
[
r2
],
r3
vld1.u32
{
d6
[
0
]
}
,
[
r2
],
r3
...
@@ -116,10 +134,12 @@ loop_horiz
...
@@ -116,10 +134,12 @@ loop_horiz
sub
r2
,
r2
,
r3
,
lsl
#
2
; reset for store
sub
r2
,
r2
,
r3
,
lsl
#
2
; reset for store
; src[] * filter_x
; src[] * filter_x
MULTIPLY_BY_Q0
q1
,
d16
,
d18
,
d20
,
d22
,
d17
,
d19
,
d21
,
d23
MULTIPLY_BY_Q0
q1
,
d16
,
d17
,
d20
,
d22
,
d18
,
d19
,
d23
,
d24
MULTIPLY_BY_Q0
q2
,
d18
,
d20
,
d22
,
d17
,
d19
,
d21
,
d23
,
d24
MULTIPLY_BY_Q0
q2
,
d17
,
d20
,
d22
,
d18
,
d19
,
d23
,
d24
,
d26
MULTIPLY_BY_Q0
q14
,
d20
,
d22
,
d17
,
d19
,
d21
,
d23
,
d24
,
d25
MULTIPLY_BY_Q0
q14
,
d20
,
d22
,
d18
,
d19
,
d23
,
d24
,
d26
,
d27
MULTIPLY_BY_Q0
q15
,
d22
,
d17
,
d19
,
d21
,
d23
,
d24
,
d25
,
d26
MULTIPLY_BY_Q0
q15
,
d22
,
d18
,
d19
,
d23
,
d24
,
d26
,
d27
,
d25
pld
[
r5
,
-
r8
]
; += 64 >> 7
; += 64 >> 7
vqrshrun.s32
d2
,
q1
,
#
7
vqrshrun.s32
d2
,
q1
,
#
7
...
@@ -135,7 +155,7 @@ loop_horiz
...
@@ -135,7 +155,7 @@ loop_horiz
vtrn.16
d2
,
d3
vtrn.16
d2
,
d3
vtrn.32
d2
,
d3
vtrn.32
d2
,
d3
vtrn.8
d2
,
d3
vtrn.8
d2
,
d3
; average the new value and the dst value
; average the new value and the dst value
vrhadd.u8
q1
,
q1
,
q3
vrhadd.u8
q1
,
q1
,
q3
...
@@ -144,15 +164,20 @@ loop_horiz
...
@@ -144,15 +164,20 @@ loop_horiz
vst1.u32
{
d2
[
1
]
}
,
[
r2
],
r3
vst1.u32
{
d2
[
1
]
}
,
[
r2
],
r3
vst1.u32
{
d3
[
1
]
}
,
[
r2
],
r4
vst1.u32
{
d3
[
1
]
}
,
[
r2
],
r4
vmov
q8
,
q9
vmov
d20
,
d23
vmov
q11
,
q12
vmov
q9
,
q13
subs
r6
,
r6
,
#
4
; w -= 4
subs
r6
,
r6
,
#
4
; w -= 4
bgt
loop_horiz
bgt
loop_horiz
; outer loop
; outer loop
mov
r6
,
r10
; restore w counter
mov
r6
,
r10
; restore w counter
add
r0
,
r0
,
r
1
; src += src_stride * 4 - w
add
r0
,
r0
,
r
9
; src += src_stride * 4 - w
add
r2
,
r2
,
r12
; dst += dst_stride * 4 - w
add
r2
,
r2
,
r12
; dst += dst_stride * 4 - w
subs
r7
,
r7
,
#
4
; h -= 4
subs
r7
,
r7
,
#
4
; h -= 4
bgt
loop_horiz
bgt
loop_horiz
_v
pop
{
r4
-
r10
,
pc
}
pop
{
r4
-
r10
,
pc
}
...
...
This diff is collapsed.
Click to expand it.
vp9/common/arm/neon/vp9_convolve8_neon.asm
+
55
−
30
View file @
4cabbca4
...
@@ -66,52 +66,72 @@
...
@@ -66,52 +66,72 @@
vld1.s16
{
q0
}
,
[
r5
]
; filter_x
vld1.s16
{
q0
}
,
[
r5
]
; filter_x
add
r8
,
r1
,
r1
,
lsl
#
1
; src_stride * 3
sub
r8
,
r1
,
r1
,
lsl
#
2
; -src_stride * 3
add
r8
,
r8
,
#
4
; src_stride * 3 + 4
add
r8
,
r8
,
#
4
; -src_stride * 3 + 4
rsb
r8
,
r8
,
#
0
; reset for src
add
r4
,
r3
,
r3
,
lsl
#
1
; dst_stride * 3
sub
r4
,
r3
,
r3
,
lsl
#
2
; -dst_stride * 3
sub
r4
,
r4
,
#
4
; dst_stride * 3 - 4
add
r4
,
r4
,
#
4
; -dst_stride * 3 + 4
rsb
r4
,
r4
,
#
0
; reset for dst
sub
r9
,
r1
,
#
8
; post increment for src load
rsb
r9
,
r6
,
r1
,
lsl
#
2
; reset src for outer loop
sub
r9
,
r9
,
#
7
rsb
r1
,
r6
,
r1
,
lsl
#
2
; reset src for outer loop
rsb
r12
,
r6
,
r3
,
lsl
#
2
; reset dst for outer loop
rsb
r12
,
r6
,
r3
,
lsl
#
2
; reset dst for outer loop
mov
r10
,
r6
; w loop counter
mov
r10
,
r6
; w loop counter
loop_horiz
loop_horiz_v
vld1.8
{
d24
}
,
[
r0
]
!
vld1.8
{
d24
}
,
[
r0
],
r1
vld3.u8
{
d28
[
0
],
d29
[
0
],
d30
[
0
]
}
,
[
r0
],
r9
vld1.8
{
d25
}
,
[
r0
],
r1
vld1.8
{
d26
}
,
[
r0
],
r1
vld1.8
{
d25
}
,
[
r0
]
!
vld1.8
{
d27
}
,
[
r0
],
r8
vld3.u8
{
d28
[
1
],
d29
[
1
],
d30
[
1
]
}
,
[
r0
],
r9
vld1.8
{
d26
}
,
[
r0
]
!
vld3.u8
{
d28
[
2
],
d29
[
2
],
d30
[
2
]
}
,
[
r0
],
r9
vld1.8
{
d27
}
,
[
r0
]
!
vld3.u8
{
d28
[
3
],
d29
[
3
],
d30
[
3
]
}
,
[
r0
],
r8
vtrn.16
q12
,
q13
vtrn.16
q12
,
q13
vtrn.8
d24
,
d25
vtrn.8
d24
,
d25
vtrn.8
d26
,
d27
vtrn.8
d26
,
d27
; extract to s16
pld
[
r0
,
r1
,
lsl
#
2
]
vmovl.u8
q8
,
d24
vmovl.u8
q8
,
d24
vmovl.u8
q9
,
d25
vmovl.u8
q9
,
d25
vmovl.u8
q10
,
d26
vmovl.u8
q10
,
d26
vmovl.u8
q11
,
d27
vmovl.u8
q11
,
d27
vtrn.32
d28
,
d29
; only the first half is populated
; save a few instructions in the inner loop
vswp
d17
,
d18
vmov
d23
,
d21
add
r0
,
r0
,
#
3
loop_horiz
add
r5
,
r0
,
#
64
vld1.32
{
d28
[]
}
,
[
r0
],
r1
vld1.32
{
d29
[]
}
,
[
r0
],
r1
vld1.32
{
d31
[]
}
,
[
r0
],
r1
vld1.32
{
d30
[]
}
,
[
r0
],
r8
pld
[
r5
]
vtrn.16
d28
,
d31
vtrn.16
d29
,
d30
vtrn.8
d28
,
d29
vtrn.8
d31
,
d30
pld
[
r5
,
r1
]
; extract to s16
vtrn.32
q14
,
q15
vmovl.u8
q12
,
d28
vmovl.u8
q12
,
d28
vmovl.u8
q13
,
d30
vmovl.u8
q13
,
d29
pld
[
r5
,
r1
,
lsl
#
1
]
; src[] * filter_x
; src[] * filter_x
MULTIPLY_BY_Q0
q1
,
d16
,
d18
,
d20
,
d22
,
d17
,
d19
,
d21
,
d23
MULTIPLY_BY_Q0
q1
,
d16
,
d17
,
d20
,
d22
,
d18
,
d19
,
d23
,
d24
MULTIPLY_BY_Q0
q2
,
d18
,
d20
,
d22
,
d17
,
d19
,
d21
,
d23
,
d24
MULTIPLY_BY_Q0
q2
,
d17
,
d20
,
d22
,
d18
,
d19
,
d23
,
d24
,
d26
MULTIPLY_BY_Q0
q14
,
d20
,
d22
,
d17
,
d19
,
d21
,
d23
,
d24
,
d25
MULTIPLY_BY_Q0
q14
,
d20
,
d22
,
d18
,
d19
,
d23
,
d24
,
d26
,
d27
MULTIPLY_BY_Q0
q15
,
d22
,
d17
,
d19
,
d21
,
d23
,
d24
,
d25
,
d26
MULTIPLY_BY_Q0
q15
,
d22
,
d18
,
d19
,
d23
,
d24
,
d26
,
d27
,
d25
pld
[
r5
,
-
r8
]
; += 64 >> 7
; += 64 >> 7
vqrshrun.s32
d2
,
q1
,
#
7
vqrshrun.s32
d2
,
q1
,
#
7
...
@@ -133,15 +153,20 @@ loop_horiz
...
@@ -133,15 +153,20 @@ loop_horiz
vst1.u32
{
d2
[
1
]
}
,
[
r2
],
r3
vst1.u32
{
d2
[
1
]
}
,
[
r2
],
r3
vst1.u32
{
d3
[
1
]
}
,
[
r2
],
r4
vst1.u32
{
d3
[
1
]
}
,
[
r2
],
r4
vmov
q8
,
q9
vmov
d20
,
d23
vmov
q11
,
q12
vmov
q9
,
q13
subs
r6
,
r6
,
#
4
; w -= 4
subs
r6
,
r6
,
#
4
; w -= 4
bgt
loop_horiz
bgt
loop_horiz
; outer loop
; outer loop
mov
r6
,
r10
; restore w counter
mov
r6
,
r10
; restore w counter
add
r0
,
r0
,
r
1
; src += src_stride * 4 - w
add
r0
,
r0
,
r
9
; src += src_stride * 4 - w
add
r2
,
r2
,
r12
; dst += dst_stride * 4 - w
add
r2
,
r2
,
r12
; dst += dst_stride * 4 - w
subs
r7
,
r7
,
#
4
; h -= 4
subs
r7
,
r7
,
#
4
; h -= 4
bgt
loop_horiz
bgt
loop_horiz
_v
pop
{
r4
-
r10
,
pc
}
pop
{
r4
-
r10
,
pc
}
...
...
This diff is collapsed.
Click to expand it.
Preview
Supports
Markdown
0%
Try again
or
attach a new file
.
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Save comment
Cancel
Please
register
or
sign in
to comment
Menu
Explore
Projects
Groups
Topics
Snippets