Skip to main content

Actualización 2026 del examen de patentes de la CNIPA: reglas más claras para invenciones relacionadas con IA, big data y algoritmos

La última revisión de las Directrices de Examen de Patentes de China, publicada por la CNIPA a finales de 2025 y vigente desde el 1 de enero de 2026, hace mucho más explícito el marco de examen para las invenciones que involucran inteligencia artificial, big data y características algorítmicas. El texto revisado renombra la sección pertinente para abarcar las invenciones relacionadas con IA, big data y otras soluciones que contienen características algorítmicas o reglas y métodos de negocio, y además incorpora un filtro más claro basado en el artículo 5.1 para los contenidos que vulneren la ley, la moral social o el interés público.

No se trata de una mera corrección de redacción. Para solicitantes, equipos de I+D y agencias de patentes, el nuevo marco desplaza el foco desde la simple pregunta de si una solución “usa IA” hacia cuestiones mucho más exigentes: quiénes son los verdaderos inventores, si los datos y la lógica de decisión son defendibles desde el punto de vista jurídico y ético, si las características algorítmicas y las técnicas forman conjuntamente una contribución técnica real, y si el diseño del modelo o las materias relacionadas con la codificación se han divulgado con suficiente especificidad para sostener la protección por patente. En el mismo paquete de revisión, la CNIPA también introdujo reglas específicas sobre reivindicaciones relacionadas con bitstreams, reforzando la misma intuición regulatoria: los resultados de datos abstractos no merecen protección automáticamente, pero los métodos técnicos concretos vinculados a la generación, almacenamiento o transmisión de esos resultados sí pueden merecerla.

Inicia sesión para seguir leyendo

El contenido completo está disponible solo para usuarios registrados, e incluye análisis detallado y recomendaciones prácticas.

1. Qué cambió realmente en el texto final — y qué no

En materia de inventores, las Directrices definitivas fijan ahora dos puntos con una claridad poco habitual. Primero, el inventor debe ser una persona física. Segundo, el formulario de solicitud debe incluir la información de identidad de todos los inventores y garantizar que dicha información sea veraz. Las entidades, los equipos de proyecto y los nombres de sistemas de IA no pueden figurar como inventores. Para las empresas que experimentan con flujos de I+D asistidos por IA, esto elimina cualquier ambigüedad residual sobre si un modelo, una plataforma o una etiqueta interna puede presentarse como coinventor.

Igualmente importante, el texto finalmente vigente separa la exigencia de veracidad sobre la información de los inventores de los deberes de verificación de las agencias. Exige que la información de los inventores sea veraz y, por separado, exige que las agencias de patentes verifiquen la identidad del solicitante y sus datos de contacto. Esa distribución es relevante en la práctica. Refleja un endurecimiento claro en materia de integridad de identidad, pero sin convertir a las agencias en garantes absolutos de toda alegación de inventorship. Para las agencias, esa distinción afecta los procesos de alta de clientes, la revisión documental y la trazabilidad interna.

2. La revisión de cumplimiento se ha adelantado

El paso más significativo desde la política pública en la sección sobre IA y big data es la incorporación expresa de un estándar de examen basado en el artículo 5.1. Si una solicitud de invención que contiene características algorítmicas o reglas y métodos de negocio incluye elementos contrarios a la ley, a la moral social o al interés público en la recogida de datos, la gestión de etiquetas, la configuración de reglas, la lógica de recomendación o la toma de decisiones, la patente no podrá concederse.

Este cambio eleva cuestiones que antes podían presentarse como simples decisiones de diseño a verdaderos umbrales de patentabilidad. La extracción de datos sin base jurídica suficiente, las estructuras de perfilado construidas sobre prácticas ilícitas de tratamiento de datos personales, o los modelos de decisión en sectores como la conducción autónoma, la sanidad, la contratación o el control de riesgo financiero que incorporen discriminación o sacrificios socialmente inaceptables ya no pueden tratarse como meras optimizaciones técnicas. En la práctica, la patentabilidad de muchas soluciones impulsadas por IA será cada vez más difícil de separar del cumplimiento de datos, la gobernanza algorítmica y la ética de aplicación.

La consecuencia práctica es directa: cuanto más dependa una solución del entrenamiento con grandes volúmenes de datos y de la decisión automatizada, más necesario será un examen previo de patentabilidad y cumplimiento antes de presentar la solicitud. Algunos expedientes podrían fracasar no por falta de novedad o actividad inventiva, sino porque el propio esquema cruza una línea legal o de interés público antes de llegar plenamente al análisis sustantivo.

3. La actividad inventiva y la divulgación suficiente se endurecen al mismo tiempo

Las Directrices revisadas reiteran que el examinador no debe separar mecánicamente las características técnicas de las algorítmicas o de las reglas de negocio. Por el contrario, todo el contenido recogido en las reivindicaciones debe evaluarse como un conjunto, prestando atención a los medios técnicos, al problema técnico resuelto y al efecto técnico obtenido. Para el solicitante, esto opera en ambos sentidos: una envoltura técnica superficial no rescatará una reivindicación algorítmica abstracta o no técnica, pero tampoco deberían ignorarse automáticamente las características algorítmicas que interactúan funcionalmente con las características técnicas en el análisis de actividad inventiva.

Al mismo tiempo, las expectativas de divulgación son cada vez más difíciles de eludir. La guía complementaria de la CNIPA sobre patentes de IA ya había hecho más concreta la lógica de redacción: cuando la contribución reside en el entrenamiento del modelo, la memoria descriptiva debe, por regla general, describir los pasos algorítmicos necesarios y el proceso específico de entrenamiento; cuando la contribución reside en la construcción del modelo, debe divulgar normalmente la estructura de módulos necesaria, la estructura jerárquica o las relaciones de conexión; y cuando la contribución reside en una aplicación sectorial concreta, debe explicar cómo se combina el modelo con el escenario de aplicación y cómo se configuran los datos de entrada y salida. En otras palabras, “modelo de caja negra más función reivindicada” es una base cada vez más frágil para obtener protección.

Esto tiene consecuencias directas para la estrategia de presentación. La redacción de la solicitud ya no puede tratarse como un ejercicio tardío de empaquetado, porque muchos detalles que definirán el futuro perímetro de las reivindicaciones —flujo de entrenamiento, selección de características, relaciones entre módulos, entradas y salidas específicas del escenario— son difíciles de reconstruir de forma segura si se omitieron del registro técnico original. Los asesores de patentes también tendrán que intervenir antes, para separar la verdadera contribución técnica de una narrativa empresarial más amplia y divulgarla a un nivel que pueda sostener tanto la concesión como la defensa posterior.

4. Por qué las reglas sobre bitstreams importan más allá del streaming

La nueva sección sobre bitstreams se sitúa fuera del capítulo específico de IA, pero su lógica resulta muy relevante para las solicitudes intensivas en algoritmos y datos. La CNIPA deja claro que una reivindicación dirigida únicamente a un bitstream puro no constituye materia patentable. En cambio, las reivindicaciones relativas al almacenamiento o transmisión de un bitstream deben vincularse a un método específico de codificación de vídeo y redactarse de forma más concreta. La misma lógica se aplica a las reivindicaciones de medios de almacenamiento legibles por ordenador que involucren bitstreams.

El mensaje más amplio es que el sistema está apartando a los solicitantes de las reivindicaciones excesivamente abstractas sobre objetos de información en sí mismos y los está devolviendo a rutas técnicas concretas. Esto importa no solo para códecs de vídeo, plataformas de streaming, cloud gaming y videoconferencia, sino también para sistemas de vídeo generativo, despliegues multimodales y otras arquitecturas en las que los resultados comercialmente valiosos son fáciles de describir, pero difíciles de proteger si la ruta técnica subyacente no se reivindica con claridad y no se divulga con suficiencia.

Visto en perspectiva, la actualización de 2026 de la CNIPA refleja una postura de examen más madura frente a las tecnologías de frontera. Ofrece una vía más clara para la innovación técnica genuinamente relacionada con algoritmos, al tiempo que utiliza un lenguaje más preciso para filtrar ficciones de identidad, fallos de cumplimiento, reivindicaciones abstractas y divulgaciones insuficientes. Para las empresas que están construyendo carteras de patentes de IA y datos en China, la cuestión competitiva ya no es solo si existe un modelo, sino si el modelo, los datos, el escenario y la contribución técnica pueden articularse con suficiente precisión para sostener un perímetro de derechos defendible.

El contenido de esta sección se ofrece únicamente con fines informativos y no constituye asesoramiento jurídico ni una recomendación formal de servicios. Para cualquier asunto concreto, le recomendamos considerar las circunstancias específicas de su caso y tomar como referencia la normativa, las políticas y la práctica más recientes de las autoridades competentes.