Se recomienda usar Visual Studio 2017

Intrínsecos ARM

 

Para obtener la documentación más reciente de Visual Studio 2017 RC, consulte Documentación de Visual Studio 2017 RC.

El compilador de Visual C++ hace que los siguientes intrínsecos estén disponibles en la arquitectura ARM. Para obtener más información sobre ARM, vea el Manual de referencia de arquitectura ARM y la Guía de herramientas para el ensamblador de ARM en el sitio web del centro de información de ARM.

Las extensiones de conjuntos de instrucciones de vector NEON de ARM proporcionan capacidades de Datos múltiples de instrucción única (SIMD) similares a los de los conjuntos de instrucciones de vector de MMX y SSE que son comunes a los procesadores de arquitectura x86 y x64.

Se admiten intrínsecos NEON, como se dispone en el archivo de encabezado arm_neon.h. La compatibilidad del compilador de Visual C++ funciones intrínsecas de NEÓN se parece a la del compilador ARM, que se describe en el apéndice G de la Referencia del compilador de la cadena de herramientas del compilador ARM, versión 4.1 en el sitio web de centro de información de ARM.

La diferencia principal entre el compilador de Visual C++ y el compilador ARM es que el compilador de Visual C++ agrega variantes _ex de la carga de vector vldX y vstX e instrucciones de almacenamiento. Las variantes _ex toman un parámetro adicional que especifica la alineación del argumento de puntero, pero por lo demás son idénticas a sus equivalentes que no son _ex.

Nombre de la funciónInstrucciónPrototipo de función
_arm_smlalSMLAL__int64 _arm_smlal(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_umlalUMLALunsigned __int64 _arm_umlal(unsigned __int64 _RdHiLo, unsigned int _Rn, unsigned int _Rm)
_arm_clzCLZunsigned int _arm_clz(unsigned int _Rm)
_arm_qaddQADDint _arm_qadd(int _Rm, int _Rn)
_arm_qdaddQDADDint _arm_qdadd(int _Rm, int _Rn)
_arm_qdsubQDSUBint _arm_qdsub(int _Rm, int _Rn)
_arm_qsubQSUBint _arm_qsub(int _Rm, int _Rn)
_arm_smlabbSMLABBint _arm_smlabb(int _Rn, int _Rm, int _Ra)
_arm_smlabtSMLABTint _arm_smlabt(int _Rn, int _Rm, int _Ra)
_arm_smlatbSMLATBint _arm_smlatb(int _Rn, int _Rm, int _Ra)
_arm_smlattSMLATTint _arm_smlatt(int _Rn, int _Rm, int _Ra)
_arm_smlalbbSMLALBB__int64 _arm_smlalbb(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smlalbtSMLALBT__int64 _arm_smlalbt(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smlaltbSMLALTB__int64 _arm_smlaltb(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smlalttSMLALTT__int64 _arm_smlaltt(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smlawbSMLAWBint _arm_smlawb(int _Rn, int _Rm, int _Ra)
_arm_smlawtSMLAWTint _arm_smlawt(int _Rn, int _Rm, int _Ra)
_arm_smulbbSMULBBint _arm_smulbb(int _Rn, int _Rm)
_arm_smulbtSMULBTint _arm_smulbt(int _Rn, int _Rm)
_arm_smultbSMULTBint _arm_smultb(int _Rn, int _Rm)
_arm_smulttSMULTTint _arm_smultt(int _Rn, int _Rm)
_arm_smulwbSMULWBint _arm_smulwb(int _Rn, int _Rm)
_arm_smulwtSMULWTint _arm_smulwt(int _Rn, int _Rm)
_arm_sadd16SADD16int _arm_sadd16(int _Rn, int _Rm)
_arm_sadd8SADD8int _arm_sadd8(int _Rn, int _Rm)
_arm_sasxSASXint _arm_sasx(int _Rn, int _Rm)
_arm_ssaxSSAXint _arm_ssax(int _Rn, int _Rm)
_arm_ssub16SSUB16int _arm_ssub16(int _Rn, int _Rm)
_arm_ssub8SSUB8int _arm_ssub8(int _Rn, int _Rm)
_arm_shadd16SHADD16int _arm_shadd16(int _Rn, int _Rm)
_arm_shadd8SHADD8int _arm_shadd8(int _Rn, int _Rm)
_arm_shasxSHASXint _arm_shasx(int _Rn, int _Rm)
_arm_shsaxSHSAXint _arm_shsax(int _Rn, int _Rm)
_arm_shsub16SHSUB16int _arm_shsub16(int _Rn, int _Rm)
_arm_shsub8SHSUB8int _arm_shsub8(int _Rn, int _Rm)
_arm_qadd16QADD16int _arm_qadd16(int _Rn, int _Rm)
_arm_qadd8QADD8int _arm_qadd8(int _Rn, int _Rm)
_arm_qasxQASXint _arm_qasx(int _Rn, int _Rm)
_arm_qsaxQSAXint _arm_qsax(int _Rn, int _Rm)
_arm_qsub16QSUB16int _arm_qsub16(int _Rn, int _Rm)
_arm_qsub8QSUB8int _arm_qsub8(int _Rn, int _Rm)
_arm_uadd16UADD16unsigned int _arm_uadd16(unsigned int _Rn, unsigned int _Rm)
_arm_uadd8UADD8unsigned int _arm_uadd8(unsigned int _Rn, unsigned int _Rm)
_arm_uasxUASXunsigned int _arm_uasx(unsigned int _Rn, unsigned int _Rm)
_arm_usaxUSAXunsigned int _arm_usax(unsigned int _Rn, unsigned int _Rm)
_arm_usub16USUB16unsigned int _arm_usub16(unsigned int _Rn, unsigned int _Rm)
_arm_usub8USUB8unsigned int _arm_usub8(unsigned int _Rn, unsigned int _Rm)
_arm_uhadd16UHADD16unsigned int _arm_uhadd16(unsigned int _Rn, unsigned int _Rm)
_arm_uhadd8UHADD8unsigned int _arm_uhadd8(unsigned int _Rn, unsigned int _Rm)
_arm_uhasxUHASXunsigned int _arm_uhasx(unsigned int _Rn, unsigned int _Rm)
_arm_uhsaxUHSAXunsigned int _arm_uhsax(unsigned int _Rn, unsigned int _Rm)
_arm_uhsub16UHSUB16unsigned int _arm_uhsub16(unsigned int _Rn, unsigned int _Rm)
_arm_uhsub8UHSUB8unsigned int _arm_uhsub8(unsigned int _Rn, unsigned int _Rm)
_arm_uqadd16UQADD16unsigned int _arm_uqadd16(unsigned int _Rn, unsigned int _Rm)
_arm_uqadd8UQADD8unsigned int _arm_uqadd8(unsigned int _Rn, unsigned int _Rm)
_arm_uqasxUQASXunsigned int _arm_uqasx(unsigned int _Rn, unsigned int _Rm)
_arm_uqsaxUQSAXunsigned int _arm_uqsax(unsigned int _Rn, unsigned int _Rm)
_arm_uqsub16UQSUB16unsigned int _arm_uqsub16(unsigned int _Rn, unsigned int _Rm)
_arm_uqsub8UQSUB8unsigned int _arm_uqsub8(unsigned int _Rn, unsigned int _Rm)
_arm_sxtabSXTABint _arm_sxtab(int _Rn, int _Rm, unsigned int _Rotation)
_arm_sxtab16SXTAB16int _arm_sxtab16(int _Rn, int _Rm, unsigned int _Rotation)
_arm_sxtahSXTAHint _arm_sxtah(int _Rn, int _Rm, unsigned int _Rotation)
_arm_uxtabUXTABunsigned int _arm_uxtab(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation)
_arm_uxtab16UXTAB16unsigned int _arm_uxta16b(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation)
_arm_uxtahUXTAHunsigned int _arm_uxtah(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation)
_arm_sxtbSXTBint _arm_sxtb(int _Rn, unsigned int _Rotation)
_arm_sxtb16SXTB16int _arm_sxtb16(int _Rn, unsigned int _Rotation)
_arm_sxthSXTHint _arm_sxth(int _Rn, unsigned int _Rotation)
_arm_uxtbUXTBunsigned int _arm_uxtb(unsigned int _Rn, unsigned int _Rotation)
_arm_uxtb16UXTB16unsigned int _arm_uxtb16(unsigned int _Rn, unsigned int _Rotation)
_arm_uxthUXTHunsigned int _arm_uxth(unsigned int _Rn, unsigned int _Rotation)
_arm_pkhbtPKHBTint _arm_pkhbt(int _Rn, int _Rm, unsigned int _Lsl_imm)
_arm_pkhtbPKHTBint _arm_pkhtb(int _Rn, int _Rm, unsigned int _Asr_imm)
_arm_usad8USAD8unsigned int _arm_usad8(unsigned int _Rn, unsigned int _Rm)
_arm_usada8USADA8unsigned int _arm_usada8(unsigned int _Rn, unsigned int _Rm, unsigned int _Ra)
_arm_ssatSSATint _arm_ssat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm)
_arm_usatUSATint _arm_usat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm)
_arm_ssat16SSAT16int _arm_ssat16(unsigned int _Sat_imm, _int _Rn)
_arm_usat16USAT16int _arm_usat16(unsigned int _Sat_imm, _int _Rn)
_arm_revREVunsigned int _arm_rev(unsigned int _Rm)
_arm_rev16REV16unsigned int _arm_rev16(unsigned int _Rm)
_arm_revshREVSHunsigned int _arm_revsh(unsigned int _Rm)
_arm_smladSMLADint _arm_smlad(int _Rn, int _Rm, int _Ra)
_arm_smladxSMLADXint _arm_smladx(int _Rn, int _Rm, int _Ra)
_arm_smlsdSMLSDint _arm_smlsd(int _Rn, int _Rm, int _Ra)
_arm_smlsdxSMLSDXint _arm_smlsdx(int _Rn, int _Rm, int _Ra)
_arm_smmlaSMMLAint _arm_smmla(int _Rn, int _Rm, int _Ra)
_arm_smmlarSMMLARint _arm_smmlar(int _Rn, int _Rm, int _Ra)
_arm_smmlsSMMLSint _arm_smmls(int _Rn, int _Rm, int _Ra)
_arm_smmlsrSMMLSRint _arm_smmlsr(int _Rn, int _Rm, int _Ra)
_arm_smmulSMMULint _arm_smmul(int _Rn, int _Rm)
_arm_smmulrSMMULRint _arm_smmulr(int _Rn, int _Rm)
_arm_smlaldSMLALD__int64 _arm_smlald(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smlaldxSMLALDX__int64 _arm_smlaldx(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smlsldSMLSLD__int64 _arm_smlsld(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smlsldxSMLSLDX__int64 _arm_smlsldx(__int64 _RdHiLo, int _Rn, int _Rm)
_arm_smuadSMUADint _arm_smuad(int _Rn, int _Rm)
_arm_smuadxSMUADXint _arm_muadxs(int _Rn, int _Rm)
_arm_smusdSMUSDint _arm_smusd(int _Rn, int _Rm)
_arm_smusdxSMUSDXint _arm_smusdx(int _Rn, int _Rm)
_arm_smullSMULL__int64 _arm_smull(int _Rn, int _Rm)
_arm_umullUMULLunsigned __int64 _arm_umull(unsigned int _Rn, unsigned int _Rm)
_arm_umaalUMAALunsigned __int64 _arm_umaal(unsigned int _RdLo, unsigned int _RdHi, unsigned int _Rn, unsigned int _Rm)
_arm_bfcBFCunsigned int _arm_bfc(unsigned int _Rd, unsigned int _Lsb, unsigned int _Width)
_arm_bfiBFIunsigned int _arm_bfi(unsigned int _Rd, unsigned int _Rn, unsigned int _Lsb, unsigned int _Width)
_arm_rbitRBITunsigned int _arm_rbit(unsigned int _Rm)
_arm_sbfxSBFXint _arm_sbfx(int _Rn, unsigned int _Lsb, unsigned int _Width)
_arm_ubfxUBFXunsigned int _arm_ubfx(unsigned int _Rn, unsigned int _Lsb, unsigned int _Width)
_arm_sdivSDIVint _arm_sdiv(int _Rn, int _Rm)
_arm_udivUDIVunsigned int _arm_udiv(unsigned int _Rn, unsigned int _Rm)
__cpsCPSvoid __cps(unsigned int _Ops, unsigned int _Flags, unsigned int _Mode)
__dmbDMBvoid __dmb(unsigned int _Type)

Inserta una operación de barrera de memoria en la secuencia de instrucciones. El parámetro _Type especifica el tipo de restricción que impone la barrera.

Para obtener más información sobre la clase de restricciones que se pueden imponer, vea Restricciones de la barrera de memoria.
__dsbDSBvoid __dsb(unsigned int _Type)

Inserta una operación de barrera de memoria en la secuencia de instrucciones. El parámetro _Type especifica el tipo de restricción que impone la barrera.

Para obtener más información sobre la clase de restricciones que se pueden imponer, vea Restricciones de la barrera de memoria.
__isbISBvoid __isb(unsigned int _Type)

Inserta una operación de barrera de memoria en la secuencia de instrucciones. El parámetro _Type especifica el tipo de restricción que impone la barrera.

Para obtener más información sobre la clase de restricciones que se pueden imponer, vea Restricciones de la barrera de memoria.
__emitvoid __emit(unsigned __int32 opcode)

Inserta una instrucción especificada en la secuencia de instrucciones generada por el compilador.

El valor de opcode debe ser una expresión constante que se conozca en el momento de la compilación. El tamaño de una palabra de instrucción es de 16 bits y los 16 bits más significativos de opcode se omiten.

El compilador no intenta interpretar el contenido de opcode y no garantiza un estado de CPU o de memoria antes de que se ejecute la instrucción insertada.

El compilador supone que los estados de CPU y de memoria no se modifican después de ejecutarse la instrucción insertada. Por lo tanto, las instrucciones que cambian de estado pueden tener un impacto negativo en el código normal generado por el compilador.

Por este motivo, utilice emit solo para insertar instrucciones que afectan a un estado de CPU que el compilador no procesa normalmente (por ejemplo, el estado de coprocesador) o para implementar las funciones que se declaran mediante declspec(naked).
__hvcHVCunsigned int __hvc(unsigned int, ...)
__iso_volatile_load16__int16 __iso_volatile_load16(const volatile __int16 *)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__iso_volatile_load32__int32 __iso_volatile_load32(const volatile __int32 *)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__iso_volatile_load64__int64 __iso_volatile_load64(const volatile __int64 *)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__iso_volatile_load8__int8 __iso_volatile_load8(const volatile __int8 *)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__iso_volatile_store16void __iso_volatile_store16(volatile __int16 *, __int16)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__iso_volatile_store32void __iso_volatile_store32(volatile __int32 *, __int32)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__iso_volatile_store64void __iso_volatile_store64(volatile __int64 *, __int64)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__iso_volatile_store8void __iso_volatile_store8(volatile __int8 *, __int8)

Para obtener más información, vea __iso_volatile_load/store instrinsics.
__ldrexdLDREXD__int64 __ldrexd(const volatile __int64 *)
__prefetchPLDvoid __cdecl __prefetch(const void *)

Proporciona una sugerencia de memoria PLD al sistema para indicarle que pronto podría accederse a la memoria en la dirección especificada, o cerca de ella. Algunos sistemas pueden optar por optimizarse para que ese modelo de acceso a memoria aumente el rendimiento en tiempo de ejecución. Sin embargo, desde el punto de vista del lenguaje C++, la función no tiene ningún efecto observable y podría no hacer nada.
__rdpmccntr64unsigned __int64 __rdpmccntr64(void)
__sevSEVvoid __sev(void)
__static_assertvoid __static_assert(int, const char *)
__swiSVCunsigned int __swi(unsigned int, ...)
__trapBKPTint __trap(int, ...)
__wfeWFEvoid __wfe(void)
__wfiWFIvoid __wfi(void)
_AddSatIntQADDint _AddSatInt(int, int)
_CopyDoubleFromInt64double _CopyDoubleFromInt64(__int64)
_CopyFloatFromInt32float _CopyFloatFromInt32(__int32)
_CopyInt32FromFloat__int32 _CopyInt32FromFloat(float)
_CopyInt64FromDouble__int64 _CopyInt64FromDouble(double)
_CountLeadingOnesunsigned int _CountLeadingOnes(unsigned long)
_CountLeadingOnes64unsigned int _CountLeadingOnes64(unsigned __int64)
_CountLeadingSignsunsigned int _CountLeadingSigns(long)
_CountLeadingSigns64unsigned int _CountLeadingSigns64(__int64)
_CountLeadingZerosunsigned int _CountLeadingZeros(unsigned long)
_CountLeadingZeros64unsigned int _CountLeadingZeros64(unsigned __int64)
_CountOneBitsunsigned int _CountOneBits(unsigned long)
_CountOneBits64unsigned int _CountOneBits64(unsigned __int64)
_DAddSatIntQDADDint _DAddSatInt(int, int)
_DSubSatIntQDSUBint _DSubSatInt(int, int)
_isunorderedint _isunordered(double, double)
_isunorderedfint _isunorderedf(float, float)
_MoveFromCoprocessorMRCunsigned int _MoveFromCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int)

Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveFromCoprocessor, _MoveFromCoprocessor2.
_MoveFromCoprocessor2MRC2unsigned int _MoveFromCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int)

Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveFromCoprocessor, _MoveFromCoprocessor2.
_MoveFromCoprocessor64MRRCunsigned __int64 _MoveFromCoprocessor64(unsigned int, unsigned int, unsigned int)

Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveFromCoprocessor64.
_MoveToCoprocessorMCRvoid _MoveToCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int)

Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveToCoprocessor, _MoveToCoprocessor2.
_MoveToCoprocessor2MCR2void _MoveToCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int)

Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveToCoprocessor, _MoveToCoprocessor2.
_MoveToCoprocessor64MCRRvoid _MoveToCoprocessor64(unsigned __int64, unsigned int, unsigned int, unsigned int)

Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveToCoprocessor64.
_MulHighlong _MulHigh(long, long)
_MulUnsignedHighunsigned long _MulUnsignedHigh(unsigned long, unsigned long)
_ReadBankedRegMRSint _ReadBankedReg(int _Reg)
_ReadStatusRegMRSint _ReadStatusReg(int)
_SubSatIntQSUBint _SubSatInt(int, int)
_WriteBankedRegMSRvoid _WriteBankedReg(int _Value, int _Reg)
_WriteStatusRegMSRvoid _WriteStatusReg(int, int, int)

[NEON]

Restricciones de la barrera de memoria

Las funciones intrínsecas __dmb (barrera de memoria de datos), __dsb (barrera de sincronización de datos) y __isb (barrera de sincronización de instrucciones) usan los siguientes valores predefinidos para especificar la restricción de la barrera de memoria en el tipo de acceso y dominio compartido que se ven afectados por la operación.

Valor de restricciónDescripción
_ARM_BARRIER_SYTodo el sistema, lectura y escritura.
_ARM_BARRIER_STTodo el sistema, solo escritura.
_ARM_BARRIER_ISHPuede compartirse internamente, lectura y escritura.
_ARM_BARRIER_ISHSTPuede compartirse internamente, solo escritura.
_ARM_BARRIER_NSHNo puede compartirse, lectura y escritura.
_ARM_BARRIER_NSHSTNo puede compartirse, solo escritura.
_ARM_BARRIER_OSHPuede compartirse externamente, lectura y escritura.
_ARM_BARRIER_OSHSTPuede compartirse externamente, solo escritura.

Para el intrínseco __isb, la única restricción válida actualmente es _ARM_BARRIER_SY; todos los demás valores se los reserva la arquitectura.

__iso_volatile_load/store instrinsics

Estas funciones intrínsecas realizan explícitamente cargas y almacenes que no están sujetos a optimizaciones del compilador.

__int16 __iso_volatile_load16(const volatile __int16 * Location)  
__int32 __iso_volatile_load32(const volatile __int32 * Location)  
__int64 __iso_volatile_load64(const volatile __int64 * Location)  
__int8 __iso_volatile_load8(const volatile __int8 * Location)  
  
void __iso_volatile_store16(volatile __int16 * Location, __int16 Value)  
void __iso_volatile_store32(volatile __int32 * Location, __int32 Value)  
void __iso_volatile_store64(volatile __int64 * Location, __int64 Value)  
void __iso_volatile_store8(volatile __int8 * Location, __int8 Value)  
  

Parámetros

Location
La dirección de una ubicación de memoria para leer o escribir.

Value (solo intrínsecos de almacén)
Valor que se va a escribir en la ubicación de memoria especificada.

Valor devuelto (solo intrínsecos de carga)

El valor de la ubicación de memoria especificado por Location.

Comentarios

Puede utilizar los intrínsecos __iso_volatile_load8/16/32/64 y __iso_volatile_store8/16/32/64 para realizar explícitamente accesos a memoria que no están sujetos a optimizaciones del compilador. El compilador no puede quitar, sintetizar, o cambiar el orden relativo de estas operaciones, pero no genera barreras de memoria de hardware implícitas. Por lo tanto, el hardware todavía puede reordenar los accesos de memoria observables en varios subprocesos. Más exactamente, estos intrínsecos son equivalentes a las siguientes expresiones compiladas en /volatile:iso.

int a = __iso_volatile_load32(p);    // equivalent to: int a = *(const volatile __int32*)p;   
__iso_volatile_store32(p, a);        // equivalent to: *(volatile __int32*)p = a;  
  

Observe que los intrínsecos tienen punteros volátiles para dar cabida a variables volátiles. Sin embargo, no hay ningún requisito ni recomendación para usar punteros volátiles como argumentos; la semántica de estas operaciones es exactamente igual que si se utiliza un tipo normal, no volátil.

Para obtener más información sobre el argumento de línea de comandos /volatile:iso, consulte /volatile (interpretación de la palabra clave volatile).

_MoveFromCoprocessor, _MoveFromCoprocessor2

Estas funciones intrínsecas leen datos del coprocesadores ARM siguiendo las instrucciones de transferencia de datos de coprocesador.

int _MoveFromCoprocessor(  
      unsigned int coproc,  
      unsigned int opcode1,  
      unsigned int crn,  
      unsigned int crm,  
      unsigned int opcode2  
);  
  
int _MoveFromCoprocessor2(  
      unsigned int coproc,  
      unsigned int opcode1,  
      unsigned int crn,  
      unsigned int crm,  
      unsigned int opcode2  
);  
  

Parámetros

coproc
Número de coprocesador comprendido entre 0 y 15.

opcode1
Código de operación específicos del coprocesador entre 0 y 7.

crn
Número de registro del coprocesador, entre 0 y 15, que especifica el primer operando de la instrucción.

crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.

opcode2
Código de operación específico del coprocesador adicional entre 0 y 7.

Valor devuelto

El valor que se lee desde el coprocesador.

Comentarios

Los valores de los cinco parámetros de este intrínseco deben ser expresiones constantes que se conozcan en el momento de la compilación.

_MoveFromCoprocessor utiliza la instrucción MRC; _MoveFromCoprocessor2 utiliza MRC2. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.

_MoveFromCoprocessor64

Lee datos de coprocesadores ARM mediante las instrucciones de transferencia de datos del coprocesador.

unsigned __int64 _MoveFromCoprocessor64(  
      unsigned int coproc,  
      unsigned int opcode1,  
      unsigned int crm,  
);  
  

Parámetros

coproc
Número de coprocesador comprendido entre 0 y 15.

opcode1
Código de operación específico del coprocesador entre 0 y 15.

crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.

Valor devuelto

El valor que se lee desde el coprocesador.

Comentarios

Los valores de los tres parámetros de este intrínseco deben ser expresiones constantes que se conozcan en el momento de la compilación.

_MoveFromCoprocessor64 utiliza la instrucción MRRC. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.

_MoveToCoprocessor, _MoveToCoprocessor2

Estas funciones intrínsecas escriben datos en coprocesadores ARM siguiendo las instrucciones de transferencia de datos del coprocesador.

void _MoveToCoprocessor(  
      unsigned int value,  
      unsigned int coproc,  
      unsigned int opcode1,  
      unsigned int crn,  
      unsigned int crm,  
      unsigned int opcode2  
);  
  
void _MoveToCoprocessor2(  
      unsigned int value,  
      unsigned int coproc,  
      unsigned int opcode1,  
      unsigned int crn,  
      unsigned int crm,  
      unsigned int opcode2  
);  
  

Parámetros

value
El que se va a escribir en el coprocesador.

coproc
Número de coprocesador comprendido entre 0 y 15.

opcode1
Código de operación específico del coprocesador entre 0 y 7.

crn
Número de registro del coprocesador, entre 0 y 15, que especifica el primer operando de la instrucción.

crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.

opcode2
Código de operación específico del coprocesador adicional entre 0 y 7.

Valor devuelto

Ninguno.

Comentarios

Los valores de los parámetros coproc, opcode1, crn, crm y opcode2 de este intrínseco deben ser expresiones constantes que se conozcan en el momento de la compilación.

_MoveToCoprocessor utiliza la instrucción MCR; _MoveToCoprocessor2 utiliza MCR2. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.

_MoveToCoprocessor64

Estas funciones intrínsecas escriben datos en coprocesadores ARM siguiendo las instrucciones de transferencia de datos del coprocesador.

void _MoveFromCoprocessor64(  
      unsigned __int64 value,  
      unsigned int coproc,  
      unsigned int opcode1,  
      unsigned int crm,  
);  
  

Parámetros

coproc
Número de coprocesador comprendido entre 0 y 15.

opcode1
Código de operación específico del coprocesador entre 0 y 15.

crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.

Valor devuelto

Ninguno.

Comentarios

Los valores de los parámetros coproc, opcode1 y crm de este intrínseco deben ser expresiones constantes que se conozcan en el momento de la compilación.

_MoveFromCoprocessor64 utiliza la instrucción MCRR. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.

La siguiente tabla enumera los intrínsecos de otras arquitecturas que son compatibles con las plataformas ARM. Se incluyen detalles adicionales en los casos en que el comportamiento de un intrínseco en ARM difiere de su comportamiento en otras arquitecturas de hardware.

Nombre de la funciónPrototipo de función
__assumevoid __assume(int)
__code_segvoid __code_seg(const char *)
__debugbreakvoid __cdecl __debugbreak(void)
__fastfail__declspec(noreturn) void __fastfail(unsigned int)
__nopvoid __nop(void) Note: En las plataformas ARM, esta función genera una instrucción NOP si hay una está implementada en la arquitectura de destino; de lo contrario, se genera una instrucción alternativa que no cambia el estado del programa o la CPU, por ejemplo, MOV r8, r8. Esto es funcionalmente equivalente al intrínseco __nop en otras arquitecturas de hardware. Dado que la arquitectura de destino podría omitir una instrucción que no tiene ningún efecto en el estado de la CPU o del programa al considerarla como una optimización, la instrucción no consume necesariamente ciclos de CPU. Por lo tanto, no utilice el intrínseco __nop para manipular el tiempo de ejecución de una secuencia de código, a menos que esté seguro de cómo se comportará la CPU. En su lugar, puede utilizar el intrínseco __nop para alinear la siguiente instrucción con una dirección de límites específicos de 32 bits.
__yieldvoid __yield(void) Note: En plataformas ARM, esta función genera la instrucción YIELD, lo que indica que el subproceso está realizando una tarea cuya ejecución puede suspenderse temporalmente (por ejemplo, un bloqueo por subproceso) sin que afecte negativamente el programa. Esto permite que la CPU ejecute otras tareas durante los ciclos de ejecución que, de lo contrario, se desperdiciarían.
_AddressOfReturnAddressvoid * _AddressOfReturnAddress(void)
_BitScanForwardunsigned char _BitScanForward(unsigned long * _Index, unsigned long _Mask)
_BitScanReverseunsigned char _BitScanReverse(unsigned long * _Index, unsigned long _Mask)
_bittestunsigned char _bittest(long const *, long)
_bittestandcomplementunsigned char _bittestandcomplement(long *, long)
_bittestandresetunsigned char _bittestandreset(long *, long)
_bittestandsetunsigned char _bittestandset(long *, long)
_byteswap_uint64unsigned __int64 __cdecl _byteswap_uint64(unsigned __int64)
_byteswap_ulongunsigned long __cdecl _byteswap_ulong(unsigned long)
_byteswap_ushortunsigned short __cdecl _byteswap_ushort(unsigned short)
_disablevoid __cdecl _disable(void) Note: En plataformas ARM, esta función genera la instrucción CPSID; solo está disponible como intrínseco.
_enablevoid __cdecl _enable(void) Note: En plataformas ARM, esta función genera la instrucción CPSIE; solo está disponible como intrínseco.
_lrotlunsigned long __cdecl _lrotl(unsigned long, int)
_lrotrunsigned long __cdecl _lrotr(unsigned long, int)
_ReadBarriervoid _ReadBarrier(void)
_ReadWriteBarriervoid _ReadWriteBarrier(void)
_ReturnAddressvoid * _ReturnAddress(void)
_rotlunsigned int __cdecl _rotl(unsigned int _Value, int _Shift)
_rotl16unsigned short _rotl16(unsigned short _Value, unsigned char _Shift)
_rotl64unsigned __int64 __cdecl _rotl64(unsigned __int64 _Value, int _Shift)
_rotl8unsigned char _rotl8(unsigned char _Value, unsigned char _Shift)
_rotrunsigned int __cdecl _rotr(unsigned int _Value, int _Shift)
_rotr16unsigned short _rotr16(unsigned short _Value, unsigned char _Shift)
_rotr64unsigned __int64 __cdecl _rotr64(unsigned __int64 _Value, int _Shift)
_rotr8unsigned char _rotr8(unsigned char _Value, unsigned char _Shift)
_setjmpexint __cdecl _setjmpex(jmp_buf)
_WriteBarriervoid _WriteBarrier(void)

[NEON]

Los intrínsecos entrelazados son un conjunto de intrínsecos que se usan para realizar operaciones atómicas de lectura-modificación-escritura. Algunos de ellos son comunes a todas las plataformas. Aquí se enumeran por separado porque existen muchos, pero dado que sus definiciones son redundantes en su mayoría, es más fácil pensar en ellos en términos generales. Sus nombres pueden utilizarse para derivar los comportamientos exactos.

En la tabla siguiente se resume la compatibilidad con ARM de los intrínsecos entrelazados que no son bittest. Cada celda de la tabla corresponde a un nombre que se crea agregando el nombre de la operación de la celda del extremo izquierdo de la fila y el nombre de tipo de la celda de la parte superior de la columna a _Interlocked. Por ejemplo, la celda en la intersección de la fila Xor y la columna 8 corresponde a _InterlockedXor8 y es totalmente compatible. La mayoría de las funciones admitidas ofrecen estos sufijos opcionales: _acq, _rel y _nf. El sufijo _acq indica una semántica de "adquisición" y el sufijo _rel indica una semántica de "versión". El sufijo _nf o “sin límite” es exclusivo de ARM y se describe en la sección siguiente.

8163264P
AddNingunaNingunaCompletoCompletoNinguna
YCompletoCompletoCompletoCompletoNinguna
CompareExchangeCompletoCompletoCompletoCompletoCompleto
DecrementoNingunaCompletoCompletoCompletoNinguna
ExchangePartialPartialPartialPartialPartial
ExchangeAddCompletoCompletoCompletoCompletoNinguna
IncrementoNingunaCompletoCompletoCompletoNinguna
O bienCompletoCompletoCompletoCompletoNinguna
XorCompletoCompletoCompletoCompletoNinguna

Explicación:

  • Completo: compatible con formularios sin formato, _acq, _rel y _nf.

  • Parcial: compatible con formularios sin formato, _acq y _nf.

  • Ninguna: no compatible

Sufijo _nf (sin límite)

El sufijo _nf o "sin límite" indica que la operación no se comporta como una barrera de memoria. Esto contrasta con los otros tres formularios (sin formato, _acq y _rel), que se comportan como una especie de barrera. Un uso posible de los formularios _nf consiste en mantener un contador estadístico que se actualiza con varios subprocesos al mismo tiempo, pero cuyo valor no se utiliza de otro modo durante la ejecución de varios subprocesos.

Lista de intrínsecos entrelazados

Nombre de la funciónPrototipo de función
_InterlockedAddlong _InterlockedAdd(long _volatile *, long)
_InterlockedAdd64__int64 _InterlockedAdd64(__int64 volatile *, __int64)
_InterlockedAdd64_acq__int64 _InterlockedAdd64_acq(__int64 volatile *, __int64)
_InterlockedAdd64_nf__int64 _InterlockedAdd64_nf(__int64 volatile *, __int64)
_InterlockedAdd64_rel__int64 _InterlockedAdd64_rel(__int64 volatile *, __int64)
_InterlockedAdd_acqlong _InterlockedAdd_acq(long volatile *, long)
_InterlockedAdd_nflong _InterlockedAdd_nf(long volatile *, long)
_InterlockedAdd_rellong _InterlockedAdd_rel(long volatile *, long)
_InterlockedAndlong _InterlockedAnd(long volatile *, long)
_InterlockedAnd16short _InterlockedAnd16(short volatile *, short)
_InterlockedAnd16_acqshort _InterlockedAnd16_acq(short volatile *, short)
_InterlockedAnd16_nfshort _InterlockedAnd16_nf(short volatile *, short)
_InterlockedAnd16_relshort _InterlockedAnd16_rel(short volatile *, short)
_InterlockedAnd64__int64 _InterlockedAnd64(__int64 volatile *, __int64)
_InterlockedAnd64_acq__int64 _InterlockedAnd64_acq(__int64 volatile *, __int64)
_InterlockedAnd64_nf__int64 _InterlockedAnd64_nf(__int64 volatile *, __int64)
_InterlockedAnd64_rel__int64 _InterlockedAnd64_rel(__int64 volatile *, __int64)
_InterlockedAnd8char _InterlockedAnd8(char volatile *, char)
_InterlockedAnd8_acqchar _InterlockedAnd8_acq(char volatile *, char)
_InterlockedAnd8_nfchar _InterlockedAnd8_nf(char volatile *, char)
_InterlockedAnd8_relchar _InterlockedAnd8_rel(char volatile *, char)
_InterlockedAnd_acqlong _InterlockedAnd_acq(long volatile *, long)
_InterlockedAnd_nflong _InterlockedAnd_nf(long volatile *, long)
_InterlockedAnd_rellong _InterlockedAnd_rel(long volatile *, long)
_InterlockedCompareExchangelong __cdecl _InterlockedCompareExchange(long volatile *, long, long)
_InterlockedCompareExchange16short _InterlockedCompareExchange16(short volatile *, short, short)
_InterlockedCompareExchange16_acqshort _InterlockedCompareExchange16_acq(short volatile *, short, short)
_InterlockedCompareExchange16_nfshort _InterlockedCompareExchange16_nf(short volatile *, short, short)
_InterlockedCompareExchange16_relshort _InterlockedCompareExchange16_rel(short volatile *, short, short)
_InterlockedCompareExchange64__int64 _InterlockedCompareExchange64(__int64 volatile *, __int64, __int64)
_InterlockedCompareExchange64_acq__int64 _InterlockedCompareExchange64_acq(__int64 volatile *, __int64, __int64)
_InterlockedCompareExchange64_nf__int64 _InterlockedCompareExchange64_nf(__int64 volatile *, __int64, __int64)
_InterlockedCompareExchange64_rel__int64 _InterlockedCompareExchange64_rel(__int64 volatile *, __int64, __int64)
_InterlockedCompareExchange8char _InterlockedCompareExchange8(char volatile *, char, char)
_InterlockedCompareExchange8_acqchar _InterlockedCompareExchange8_acq(char volatile *, char, char)
_InterlockedCompareExchange8_nfchar _InterlockedCompareExchange8_nf(char volatile *, char, char)
_InterlockedCompareExchange8_relchar _InterlockedCompareExchange8_rel(char volatile *, char, char)
_InterlockedCompareExchangePointervoid * _InterlockedCompareExchangePointer(void * volatile *, void *, void *)
_InterlockedCompareExchangePointer_acqvoid * _InterlockedCompareExchangePointer_acq(void * volatile *, void *, void *)
_InterlockedCompareExchangePointer_nfvoid * _InterlockedCompareExchangePointer_nf(void * volatile *, void *, void *)
_InterlockedCompareExchangePointer_relvoid * _InterlockedCompareExchangePointer_rel(void * volatile *, void *, void *)
_InterlockedCompareExchange_acqlong _InterlockedCompareExchange_acq(long volatile *, long, long)
_InterlockedCompareExchange_nflong _InterlockedCompareExchange_nf(long volatile *, long, long)
_InterlockedCompareExchange_rellong _InterlockedCompareExchange_rel(long volatile *, long, long)
_InterlockedDecrementlong __cdecl _InterlockedDecrement(long volatile *)
_InterlockedDecrement16short _InterlockedDecrement16(short volatile *)
_InterlockedDecrement16_acqshort _InterlockedDecrement16_acq(short volatile *)
_InterlockedDecrement16_nfshort _InterlockedDecrement16_nf(short volatile *)
_InterlockedDecrement16_relshort _InterlockedDecrement16_rel(short volatile *)
_InterlockedDecrement64__int64 _InterlockedDecrement64(__int64 volatile *)
_InterlockedDecrement64_acq__int64 _InterlockedDecrement64_acq(__int64 volatile *)
_InterlockedDecrement64_nf__int64 _InterlockedDecrement64_nf(__int64 volatile *)
_InterlockedDecrement64_rel__int64 _InterlockedDecrement64_rel(__int64 volatile *)
_InterlockedDecrement_acqlong _InterlockedDecrement_acq(long volatile *)
_InterlockedDecrement_nflong _InterlockedDecrement_nf(long volatile *)
_InterlockedDecrement_rellong _InterlockedDecrement_rel(long volatile *)
_InterlockedExchangelong __cdecl _InterlockedExchange(long volatile * _Target, long)
_InterlockedExchange16short _InterlockedExchange16(short volatile * _Target, short)
_InterlockedExchange16_acqshort _InterlockedExchange16_acq(short volatile * _Target, short)
_InterlockedExchange16_nfshort _InterlockedExchange16_nf(short volatile * _Target, short)
_InterlockedExchange64__int64 _InterlockedExchange64(__int64 volatile * _Target, __int64)
_InterlockedExchange64_acq__int64 _InterlockedExchange64_acq(__int64 volatile * _Target, __int64)
_InterlockedExchange64_nf__int64 _InterlockedExchange64_nf(__int64 volatile * _Target, __int64)
_InterlockedExchange8char _InterlockedExchange8(char volatile * _Target, char)
_InterlockedExchange8_acqchar _InterlockedExchange8_acq(char volatile * _Target, char)
_InterlockedExchange8_nfchar _InterlockedExchange8_nf(char volatile * _Target, char)
_InterlockedExchangeAddlong __cdecl _InterlockedExchangeAdd(long volatile *, long)
_InterlockedExchangeAdd16short _InterlockedExchangeAdd16(short volatile *, short)
_InterlockedExchangeAdd16_acqshort _InterlockedExchangeAdd16_acq(short volatile *, short)
_InterlockedExchangeAdd16_nfshort _InterlockedExchangeAdd16_nf(short volatile *, short)
_InterlockedExchangeAdd16_relshort _InterlockedExchangeAdd16_rel(short volatile *, short)
_InterlockedExchangeAdd64__int64 _InterlockedExchangeAdd64(__int64 volatile *, __int64)
_InterlockedExchangeAdd64_acq__int64 _InterlockedExchangeAdd64_acq(__int64 volatile *, __int64)
_InterlockedExchangeAdd64_nf__int64 _InterlockedExchangeAdd64_nf(__int64 volatile *, __int64)
_InterlockedExchangeAdd64_rel__int64 _InterlockedExchangeAdd64_rel(__int64 volatile *, __int64)
_InterlockedExchangeAdd8char _InterlockedExchangeAdd8(char volatile *, char)
_InterlockedExchangeAdd8_acqchar _InterlockedExchangeAdd8_acq(char volatile *, char)
_InterlockedExchangeAdd8_nfchar _InterlockedExchangeAdd8_nf(char volatile *, char)
_InterlockedExchangeAdd8_relchar _InterlockedExchangeAdd8_rel(char volatile *, char)
_InterlockedExchangeAdd_acqlong _InterlockedExchangeAdd_acq(long volatile *, long)
_InterlockedExchangeAdd_nflong _InterlockedExchangeAdd_nf(long volatile *, long)
_InterlockedExchangeAdd_rellong _InterlockedExchangeAdd_rel(long volatile *, long)
_InterlockedExchangePointervoid * _InterlockedExchangePointer(void * volatile * _Target, void *)
_InterlockedExchangePointer_acqvoid * _InterlockedExchangePointer_acq(void * volatile * _Target, void *)
_InterlockedExchangePointer_nfvoid * _InterlockedExchangePointer_nf(void * volatile * _Target, void *)
_InterlockedExchange_acqlong _InterlockedExchange_acq(long volatile * _Target, long)
_InterlockedExchange_nflong _InterlockedExchange_nf(long volatile * _Target, long)
_InterlockedIncrementlong __cdecl _InterlockedIncrement(long volatile *)
_InterlockedIncrement16short _InterlockedIncrement16(short volatile *)
_InterlockedIncrement16_acqshort _InterlockedIncrement16_acq(short volatile *)
_InterlockedIncrement16_nfshort _InterlockedIncrement16_nf(short volatile *)
_InterlockedIncrement16_relshort _InterlockedIncrement16_rel(short volatile *)
_InterlockedIncrement64__int64 _InterlockedIncrement64(__int64 volatile *)
_InterlockedIncrement64_acq__int64 _InterlockedIncrement64_acq(__int64 volatile *)
_InterlockedIncrement64_nf__int64 _InterlockedIncrement64_nf(__int64 volatile *)
_InterlockedIncrement64_rel__int64 _InterlockedIncrement64_rel(__int64 volatile *)
_InterlockedIncrement_acqlong _InterlockedIncrement_acq(long volatile *)
_InterlockedIncrement_nflong _InterlockedIncrement_nf(long volatile *)
_InterlockedIncrement_rellong _InterlockedIncrement_rel(long volatile *)
_InterlockedOrlong _InterlockedOr(long volatile *, long)
_InterlockedOr16short _InterlockedOr16(short volatile *, short)
_InterlockedOr16_acqshort _InterlockedOr16_acq(short volatile *, short)
_InterlockedOr16_nfshort _InterlockedOr16_nf(short volatile *, short)
_InterlockedOr16_relshort _InterlockedOr16_rel(short volatile *, short)
_InterlockedOr64__int64 _InterlockedOr64(__int64 volatile *, __int64)
_InterlockedOr64_acq__int64 _InterlockedOr64_acq(__int64 volatile *, __int64)
_InterlockedOr64_nf__int64 _InterlockedOr64_nf(__int64 volatile *, __int64)
_InterlockedOr64_rel__int64 _InterlockedOr64_rel(__int64 volatile *, __int64)
_InterlockedOr8char _InterlockedOr8(char volatile *, char)
_InterlockedOr8_acqchar _InterlockedOr8_acq(char volatile *, char)
_InterlockedOr8_nfchar _InterlockedOr8_nf(char volatile *, char)
_InterlockedOr8_relchar _InterlockedOr8_rel(char volatile *, char)
_InterlockedOr_acqlong _InterlockedOr_acq(long volatile *, long)
_InterlockedOr_nflong _InterlockedOr_nf(long volatile *, long)
_InterlockedOr_rellong _InterlockedOr_rel(long volatile *, long)
_InterlockedXorlong _InterlockedXor(long volatile *, long)
_InterlockedXor16short _InterlockedXor16(short volatile *, short)
_InterlockedXor16_acqshort _InterlockedXor16_acq(short volatile *, short)
_InterlockedXor16_nfshort _InterlockedXor16_nf(short volatile *, short)
_InterlockedXor16_relshort _InterlockedXor16_rel(short volatile *, short)
_InterlockedXor64__int64 _InterlockedXor64(__int64 volatile *, __int64)
_InterlockedXor64_acq__int64 _InterlockedXor64_acq(__int64 volatile *, __int64)
_InterlockedXor64_nf__int64 _InterlockedXor64_nf(__int64 volatile *, __int64)
_InterlockedXor64_rel__int64 _InterlockedXor64_rel(__int64 volatile *, __int64)
_InterlockedXor8char _InterlockedXor8(char volatile *, char)
_InterlockedXor8_acqchar _InterlockedXor8_acq(char volatile *, char)
_InterlockedXor8_nfchar _InterlockedXor8_nf(char volatile *, char)
_InterlockedXor8_relchar _InterlockedXor8_rel(char volatile *, char)
_InterlockedXor_acqlong _InterlockedXor_acq(long volatile *, long)
_InterlockedXor_nflong _InterlockedXor_nf(long volatile *, long)
_InterlockedXor_rellong _InterlockedXor_rel(long volatile *, long)

[NEON]

Intrínsecos _interlockedbittest

Los intrínsecos bittest entrelazados normales son comunes a todas las plataformas. ARM agrega variantes _acq, _rel y _nf que solo modifican la semántica de barrera de una operación, como se ha descrito en Sufijo _nf (sin límite), en este mismo artículo.

Nombre de la funciónPrototipo de función
_interlockedbittestandresetunsigned char _interlockedbittestandreset(long volatile *, long)
_interlockedbittestandreset_acqunsigned char _interlockedbittestandreset_acq(long volatile *, long)
_interlockedbittestandreset_nfunsigned char _interlockedbittestandreset_nf(long volatile *, long)
_interlockedbittestandreset_relunsigned char _interlockedbittestandreset_rel(long volatile *, long)
_interlockedbittestandsetunsigned char _interlockedbittestandset(long volatile *, long)
_interlockedbittestandset_acqunsigned char _interlockedbittestandset_acq(long volatile *, long)
_interlockedbittestandset_nfunsigned char _interlockedbittestandset_nf(long volatile *, long)
_interlockedbittestandset_relunsigned char _interlockedbittestandset_rel(long volatile *, long)

[NEON]

Intrínsecos del controlador
ARM Assembler Reference
Referencia de lenguaje C++

Mostrar: