⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 dsputil_vis.c

📁 tcpmp播放器的flv插件
💻 C
📖 第 1 页 / 共 5 页
字号:
			vis_alignaddr_g0((void *)off_plus_1);			vis_faligndata(TMP0, TMP2, REF_2);			vis_faligndata(TMP2, TMP4, REF_6);			vis_faligndata(TMP6, TMP8, REF_S2);			vis_faligndata(TMP8, TMP10, REF_S6);		} else {			vis_src1(TMP2, REF_2);			vis_src1(TMP4, REF_6);			vis_src1(TMP8, REF_S2);			vis_src1(TMP10, REF_S6);		}		vis_mul8x16al(DST_0,   CONST_1024, TMP30);		vis_pmerge(ZERO, REF_0, TMP0);		vis_mul8x16al(DST_1,   CONST_1024, TMP32);		vis_pmerge(ZERO,      REF_0_1,  TMP2);		vis_mul8x16au(REF_2, CONST_256, TMP4);		vis_pmerge(ZERO,      REF_2_1,  TMP6);		vis_mul8x16al(DST_2,   CONST_1024, REF_0);		vis_padd16(TMP0, CONST_6, TMP0);		vis_mul8x16al(DST_3,   CONST_1024, REF_2);		vis_padd16(TMP2, CONST_6, TMP2);		vis_padd16(TMP0, TMP4, TMP0);		vis_mul8x16au(REF_4, CONST_256, TMP4);		vis_padd16(TMP2, TMP6, TMP2);		vis_mul8x16au(REF_4_1, CONST_256, TMP6);		vis_padd16(TMP12, TMP0, TMP12);		vis_mul8x16au(REF_6, CONST_256, TMP8);		vis_padd16(TMP14, TMP2, TMP14);		vis_mul8x16au(REF_6_1, CONST_256, TMP10);		vis_padd16(TMP12, TMP16, TMP12);		vis_mul8x16au(REF_S0, CONST_256, REF_4);		vis_padd16(TMP14, TMP18, TMP14);		vis_mul8x16au(REF_S0_1, CONST_256, REF_6);		vis_padd16(TMP12, TMP30, TMP12);		vis_padd16(TMP14, TMP32, TMP14);		vis_pack16(TMP12, DST_0);		vis_pack16(TMP14, DST_1);		vis_st64(DST_0, dest[0]);		vis_padd16(TMP4, CONST_6, TMP4);		vis_ld64_2(dest, stride, DST_0);		vis_padd16(TMP6, CONST_6, TMP6);		vis_mul8x16au(REF_S2, CONST_256, TMP12);		vis_padd16(TMP4, TMP8, TMP4);		vis_mul8x16au(REF_S2_1, CONST_256,  TMP14);		vis_padd16(TMP6, TMP10, TMP6);		vis_padd16(TMP20, TMP4, TMP20);		vis_padd16(TMP22, TMP6, TMP22);		vis_padd16(TMP20, TMP24, TMP20);		vis_padd16(TMP22, TMP26, TMP22);		vis_padd16(TMP20, REF_0, TMP20);		vis_mul8x16au(REF_S4, CONST_256, REF_0);		vis_padd16(TMP22, REF_2, TMP22);		vis_pack16(TMP20, DST_2);		vis_pack16(TMP22, DST_3);		vis_st64_2(DST_2, dest, 8);		dest += stride;		vis_ld64_2(dest, 8, DST_2);		vis_mul8x16al(DST_0,   CONST_1024, TMP30);		vis_pmerge(ZERO,      REF_S4_1,  REF_2);		vis_mul8x16al(DST_1,   CONST_1024, TMP32);		vis_padd16(REF_4, TMP0, TMP8);		vis_mul8x16au(REF_S6, CONST_256, REF_4);		vis_padd16(REF_6, TMP2, TMP10);		vis_mul8x16au(REF_S6_1, CONST_256, REF_6);		vis_padd16(TMP8, TMP12, TMP8);		vis_padd16(TMP10, TMP14, TMP10);		vis_padd16(TMP8, TMP30, TMP8);		vis_padd16(TMP10, TMP32, TMP10);		vis_pack16(TMP8, DST_0);		vis_pack16(TMP10, DST_1);		vis_st64(DST_0, dest[0]);		vis_padd16(REF_0, TMP4, REF_0);		vis_mul8x16al(DST_2,   CONST_1024, TMP30);		vis_padd16(REF_2, TMP6, REF_2);		vis_mul8x16al(DST_3,   CONST_1024, TMP32);		vis_padd16(REF_0, REF_4, REF_0);		vis_padd16(REF_2, REF_6, REF_2);		vis_padd16(REF_0, TMP30, REF_0);		/* stall */		vis_padd16(REF_2, TMP32, REF_2);		vis_pack16(REF_0, DST_2);		vis_pack16(REF_2, DST_3);		vis_st64_2(DST_2, dest, 8);		dest += stride;	} while (--height);}static void MC_avg_xy_8_vis (uint8_t * dest, const uint8_t * _ref,			     const int stride, int height){	uint8_t *ref = (uint8_t *) _ref;	unsigned long off = (unsigned long) ref & 0x7;	unsigned long off_plus_1 = off + 1;	int stride_8 = stride + 8;	vis_set_gsr(4 << VIS_GSR_SCALEFACT_SHIFT);	ref = vis_alignaddr(ref);	vis_ld64(ref[0], TMP0);	vis_fzero(ZERO);	vis_ld64_2(ref, 8, TMP2);	vis_ld64(constants6[0], CONST_6);	vis_ld64(constants256_1024[0], CONST_256);	vis_faligndata(TMP0, TMP2, REF_S0);	if (off != 0x7) {		vis_alignaddr_g0((void *)off_plus_1);		vis_faligndata(TMP0, TMP2, REF_S2);	} else {		vis_src1(TMP2, REF_S2);	}	height >>= 1;	do {	/* 31 cycles */		vis_ld64_2(ref, stride, TMP0);		vis_mul8x16au(REF_S0, CONST_256, TMP8);		vis_pmerge(ZERO,      REF_S0_1,  TMP10);		vis_ld64_2(ref, stride_8, TMP2);		ref += stride;		vis_mul8x16au(REF_S2, CONST_256, TMP12);		vis_pmerge(ZERO,      REF_S2_1,  TMP14);		vis_alignaddr_g0((void *)off);		vis_ld64_2(ref, stride, TMP4);		vis_faligndata(TMP0, TMP2, REF_S4);		vis_ld64_2(ref, stride_8, TMP6);		ref += stride;		vis_ld64(dest[0], DST_0);		vis_faligndata(TMP4, TMP6, REF_S0);		vis_ld64_2(dest, stride, DST_2);		if (off != 0x7) {			vis_alignaddr_g0((void *)off_plus_1);			vis_faligndata(TMP0, TMP2, REF_S6);			vis_faligndata(TMP4, TMP6, REF_S2);		} else {			vis_src1(TMP2, REF_S6);			vis_src1(TMP6, REF_S2);		}		vis_mul8x16al(DST_0,   CONST_1024, TMP30);		vis_pmerge(ZERO, REF_S4, TMP22);		vis_mul8x16al(DST_1,   CONST_1024, TMP32);		vis_pmerge(ZERO,      REF_S4_1,  TMP24);		vis_mul8x16au(REF_S6, CONST_256, TMP26);		vis_pmerge(ZERO,      REF_S6_1,  TMP28);		vis_mul8x16au(REF_S0, CONST_256, REF_S4);		vis_padd16(TMP22, CONST_6, TMP22);		vis_mul8x16au(REF_S0_1, CONST_256, REF_S6);		vis_padd16(TMP24, CONST_6, TMP24);		vis_mul8x16al(DST_2,   CONST_1024, REF_0);		vis_padd16(TMP22, TMP26, TMP22);		vis_mul8x16al(DST_3,   CONST_1024, REF_2);		vis_padd16(TMP24, TMP28, TMP24);		vis_mul8x16au(REF_S2, CONST_256, TMP26);		vis_padd16(TMP8, TMP22, TMP8);		vis_mul8x16au(REF_S2_1, CONST_256, TMP28);		vis_padd16(TMP10, TMP24, TMP10);		vis_padd16(TMP8, TMP12, TMP8);		vis_padd16(TMP10, TMP14, TMP10);		vis_padd16(TMP8, TMP30, TMP8);		vis_padd16(TMP10, TMP32, TMP10);		vis_pack16(TMP8, DST_0);		vis_pack16(TMP10, DST_1);		vis_st64(DST_0, dest[0]);		dest += stride;		vis_padd16(REF_S4, TMP22, TMP12);		vis_padd16(REF_S6, TMP24, TMP14);		vis_padd16(TMP12, TMP26, TMP12);		vis_padd16(TMP14, TMP28, TMP14);		vis_padd16(TMP12, REF_0, TMP12);		vis_padd16(TMP14, REF_2, TMP14);		vis_pack16(TMP12, DST_2);		vis_pack16(TMP14, DST_3);		vis_st64(DST_2, dest[0]);		dest += stride;	} while (--height);}/* End of rounding code *//* Start of no rounding code *//* The trick used in some of this file is the formula from the MMX * motion comp code, which is: * * (x+y)>>1 == (x&y)+((x^y)>>1) * * This allows us to average 8 bytes at a time in a 64-bit FPU reg. * We avoid overflows by masking before we do the shift, and we * implement the shift by multiplying by 1/2 using mul8x16.  So in * VIS this is (assume 'x' is in f0, 'y' is in f2, a repeating mask * of '0xfe' is in f4, a repeating mask of '0x7f' is in f6, and * the value 0x80808080 is in f8): * *	fxor		f0, f2, f10 *	fand		f10, f4, f10 *	fmul8x16	f8, f10, f10 *	fand		f10, f6, f10 *	fand		f0, f2, f12 *	fpadd16		f12, f10, f10 */static void MC_put_no_round_o_16_vis (uint8_t * dest, const uint8_t * _ref,				      const int stride, int height){	uint8_t *ref = (uint8_t *) _ref;	ref = vis_alignaddr(ref);	do {	/* 5 cycles */		vis_ld64(ref[0], TMP0);		vis_ld64_2(ref, 8, TMP2);		vis_ld64_2(ref, 16, TMP4);		ref += stride;		vis_faligndata(TMP0, TMP2, REF_0);		vis_st64(REF_0, dest[0]);		vis_faligndata(TMP2, TMP4, REF_2);		vis_st64_2(REF_2, dest, 8);		dest += stride;	} while (--height);}static void MC_put_no_round_o_8_vis (uint8_t * dest, const uint8_t * _ref,			    const int stride, int height){	uint8_t *ref = (uint8_t *) _ref;	ref = vis_alignaddr(ref);	do {	/* 4 cycles */		vis_ld64(ref[0], TMP0);		vis_ld64(ref[8], TMP2);		ref += stride;		/* stall */		vis_faligndata(TMP0, TMP2, REF_0);		vis_st64(REF_0, dest[0]);		dest += stride;	} while (--height);}static void MC_avg_no_round_o_16_vis (uint8_t * dest, const uint8_t * _ref,			     const int stride, int height){	uint8_t *ref = (uint8_t *) _ref;	int stride_8 = stride + 8;	ref = vis_alignaddr(ref);	vis_ld64(ref[0], TMP0);	vis_ld64(ref[8], TMP2);	vis_ld64(ref[16], TMP4);	vis_ld64(dest[0], DST_0);	vis_ld64(dest[8], DST_2);	vis_ld64(constants_fe[0], MASK_fe);	vis_faligndata(TMP0, TMP2, REF_0);	vis_ld64(constants_7f[0], MASK_7f);	vis_faligndata(TMP2, TMP4, REF_2);	vis_ld64(constants128[0], CONST_128);	ref += stride;	height = (height >> 1) - 1;	do {	/* 24 cycles */		vis_ld64(ref[0], TMP0);		vis_xor(DST_0, REF_0, TMP6);		vis_ld64_2(ref, 8, TMP2);		vis_and(TMP6, MASK_fe, TMP6);		vis_ld64_2(ref, 16, TMP4);		ref += stride;		vis_mul8x16(CONST_128, TMP6, TMP6);		vis_xor(DST_2, REF_2, TMP8);		vis_and(TMP8, MASK_fe, TMP8);		vis_and(DST_0, REF_0, TMP10);		vis_ld64_2(dest, stride, DST_0);		vis_mul8x16(CONST_128, TMP8, TMP8);		vis_and(DST_2, REF_2, TMP12);		vis_ld64_2(dest, stride_8, DST_2);		vis_ld64(ref[0], TMP14);		vis_and(TMP6, MASK_7f, TMP6);		vis_and(TMP8, MASK_7f, TMP8);		vis_padd16(TMP10, TMP6, TMP6);		vis_st64(TMP6, dest[0]);		vis_padd16(TMP12, TMP8, TMP8);		vis_st64_2(TMP8, dest, 8);		dest += stride;		vis_ld64_2(ref, 8, TMP16);		vis_faligndata(TMP0, TMP2, REF_0);		vis_ld64_2(ref, 16, TMP18);		vis_faligndata(TMP2, TMP4, REF_2);		ref += stride;		vis_xor(DST_0, REF_0, TMP20);		vis_and(TMP20, MASK_fe, TMP20);		vis_xor(DST_2, REF_2, TMP22);		vis_mul8x16(CONST_128, TMP20, TMP20);		vis_and(TMP22, MASK_fe, TMP22);		vis_and(DST_0, REF_0, TMP24);		vis_mul8x16(CONST_128, TMP22, TMP22);		vis_and(DST_2, REF_2, TMP26);		vis_ld64_2(dest, stride, DST_0);		vis_faligndata(TMP14, TMP16, REF_0);		vis_ld64_2(dest, stride_8, DST_2);		vis_faligndata(TMP16, TMP18, REF_2);		vis_and(TMP20, MASK_7f, TMP20);		vis_and(TMP22, MASK_7f, TMP22);		vis_padd16(TMP24, TMP20, TMP20);		vis_st64(TMP20, dest[0]);		vis_padd16(TMP26, TMP22, TMP22);		vis_st64_2(TMP22, dest, 8);		dest += stride;	} while (--height);	vis_ld64(ref[0], TMP0);	vis_xor(DST_0, REF_0, TMP6);	vis_ld64_2(ref, 8, TMP2);	vis_and(TMP6, MASK_fe, TMP6);	vis_ld64_2(ref, 16, TMP4);	vis_mul8x16(CONST_128, TMP6, TMP6);	vis_xor(DST_2, REF_2, TMP8);	vis_and(TMP8, MASK_fe, TMP8);	vis_and(DST_0, REF_0, TMP10);	vis_ld64_2(dest, stride, DST_0);	vis_mul8x16(CONST_128, TMP8, TMP8);	vis_and(DST_2, REF_2, TMP12);	vis_ld64_2(dest, stride_8, DST_2);	vis_ld64(ref[0], TMP14);	vis_and(TMP6, MASK_7f, TMP6);	vis_and(TMP8, MASK_7f, TMP8);	vis_padd16(TMP10, TMP6, TMP6);	vis_st64(TMP6, dest[0]);	vis_padd16(TMP12, TMP8, TMP8);	vis_st64_2(TMP8, dest, 8);	dest += stride;	vis_faligndata(TMP0, TMP2, REF_0);	vis_faligndata(TMP2, TMP4, REF_2);	vis_xor(DST_0, REF_0, TMP20);	vis_and(TMP20, MASK_fe, TMP20);	vis_xor(DST_2, REF_2, TMP22);	vis_mul8x16(CONST_128, TMP20, TMP20);	vis_and(TMP22, MASK_fe, TMP22);	vis_and(DST_0, REF_0, TMP24);	vis_mul8x16(CONST_128, TMP22, TMP22);	vis_and(DST_2, REF_2, TMP26);	vis_and(TMP20, MASK_7f, TMP20);	vis_and(TMP22, MASK_7f, TMP22);	vis_padd16(TMP24, TMP20, TMP20);	vis_st64(TMP20, dest[0]);	vis_padd16(TMP26, TMP22, TMP22);	vis_st64_2(TMP22, dest, 8);}static void MC_avg_no_round_o_8_vis (uint8_t * dest, const uint8_t * _ref,			    const int stride, int height){	uint8_t *ref = (uint8_t *) _ref;	ref = vis_alignaddr(ref);	vis_ld64(ref[0], TMP0);	vis_ld64(ref[8], TMP2);	vis_ld64(dest[0], DST_0);	vis_ld64(constants_fe[0], MASK_fe);	vis_ld64(constants_7f[0], MASK_7f);	vis_faligndata(TMP0, TMP2, REF_0);	vis_ld64(constants128[0], CONST_128);	ref += stride;	height = (height >> 1) - 1;	do {	/* 12 cycles */		vis_ld64(ref[0], TMP0);		vis_xor(DST_0, REF_0, TMP4);		vis_ld64(ref[8], TMP2);		vis_and(TMP4, MASK_fe, TMP4);		vis_and(DST_0, REF_0, TMP6);		vis_ld64_2(dest, stride, DST_0);		ref += stride;		vis_mul8x16(CONST_128, TMP4, TMP4);		vis_ld64(ref[0], TMP12);		vis_faligndata(TMP0, TMP2, REF_0);		vis_ld64(ref[8], TMP2);		vis_xor(DST_0, REF_0, TMP0);		ref += stride;		vis_and(TMP0, MASK_fe, TMP0);		vis_and(TMP4, MASK_7f, TMP4);		vis_padd16(TMP6, TMP4, TMP4);		vis_st64(TMP4, dest[0]);		dest += stride;		vis_mul8x16(CONST_128, TMP0, TMP0);		vis_and(DST_0, REF_0, TMP6);		vis_ld64_2(dest, stride, DST_0);		vis_faligndata(TMP12, TMP2, REF_0);		vis_and(TMP0, MASK_7f, TMP0);		vis_padd16(TMP6, TMP0, TMP4);		vis_st64(TMP4, dest[0]);		dest += stride;	} while (--height);	vis_ld64(ref[0], TMP0);	vis_xor(DST_0, REF_0, TMP4);	vis_ld64(ref[8], TMP2);	vis_and(TMP4, MASK_fe, TMP4);	vis_and(DST_0, REF_0, TMP6);	vis_ld64_2(dest, stride, DST_0);	vis_mul8x16(CONST_128, TMP4, TMP4);	vis_faligndata(TMP0, TMP2, REF_0);	vis_xor(DST_0, REF_0, TMP0);	vis_and(TMP0, MASK_fe, TMP0);	vis_and(TMP4, MASK_7f, TMP4);	vis_padd16(TMP6, TMP4, TMP4);	vis_st64(TMP4, dest[0]);	dest += stride;	vis_mul8x16(CONST_128, TMP0, TMP0);	vis_and(DST_0, REF_0, TMP6);	vis_and(TMP0, MASK_7f, TMP0);	vis_padd16(TMP6, TMP0, TMP4);	vis_st64(TMP4, dest[0]);}static void MC_put_no_round_x_16_vis (uint8_t * dest, const uint8_t * _ref,			     const int stride, int height){	uint8_t *ref = (uint8_t *) _ref;	unsigned long off = (unsigned long) ref & 0x7;	unsigned long off_plus_1 = off + 1;	ref = vis_alignaddr(ref);	vis_ld64(ref[0],    TMP0);	vis_ld64_2(ref, 8,  TMP2);	vis_ld64_2(ref, 16, TMP4);	vis_ld64(constants_fe[0], MASK_fe);	vis_ld64(constants_7f[0], MASK_7f);	vis_faligndata(TMP0, TMP2, REF_0);	vis_ld64(constants128[0], CONST_128);	vis_faligndata(TMP2, TMP4, REF_4);	if (off != 0x7) {		vis_alignaddr_g0((void *)off_plus_1);		vis_faligndata(TMP0, TMP2, REF_2);		vis_faligndata(TMP2, TMP4, REF_6);	} else {		vis_src1(TMP2, REF_2);

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -