Genetec promueve la IA responsable.

La inteligencia artificial (IA) se ha convertido en una herramienta poderosa en la automatización y eficiencia de procesos en diversas industrias. Sin embargo, a medida que la IA se vuelve más omnipresente, surgen preocupaciones sobre su seguridad y uso responsable. Genetec, líder en soluciones de seguridad electrónica, aborda estas inquietudes y promueve la IA responsable en la industria.

Los grandes modelos de lenguaje (LLM), como el famoso ChatGPT de OpenAI, están transformando la forma en la que se interactúa con la tecnología. Estos LLM pueden realizar una amplia gama de tareas, desde responder preguntas y redactar contenido hasta ayudar en la toma de decisiones. Sin embargo, su crecimiento vertiginoso ha suscitado preocupaciones sobre la seguridad y la responsabilidad en su uso. Según Rafael Martín Enríquez, Sales Director Southern Europe de Genetec, “la IA tiene un potencial increíble para mejorar la seguridad electrónica, pero también conlleva riesgos que no debemos subestimar. Es crucial comprender las limitaciones y los posibles peligros de la IA en el contexto de la seguridad, en el que siempre el hombre debe tener la última palabra. Por esto en Genetec preferimos referirnos a esta tecnología hablando de machine learning o utilizando el acrónimo Inteligencia Automática“.

Rafael Martín
Rafael Martín, Sales Director Southern Europe de Genetec

Los LLM se basan en el aprendizaje automático y el procesamiento de lenguaje natural, lo que les permite responder preguntas y generar contenido de manera efectiva. Sin embargo, estos modelos no siempre producen respuestas precisas y libres de sesgos, lo que plantea problemas significativos en las aplicaciones de seguridad.

Uno de los riesgos destacados de los LLM es la posibilidad de “alucinaciones de la verdad”, donde el modelo puede generar respuestas que parecen plausibles pero no están basadas en datos reales.

Además, existe una preocupación por la privacidad y la confidencialidad, ya que los LLM pueden aprender de datos confidenciales y divulgar información sensible. Además, existe el temor de que individuos malintencionados puedan utilizar la IA para tareas maliciosas, como escribir código para explotar vulnerabilidades o buscar formas de hackear aplicaciones y protocolos.

Genetec reconoce el potencial de la IA en la seguridad electrónica y está comprometido con la IA responsable. La compañía ha establecido tres pilares fundamentales para guiar su enfoque en la IA:

1- Privacidad y gobernanza de datos: Genetec utiliza conjuntos de datos que cumplen con las regulaciones de protección de datos y toma medidas para anonimizarlos siempre que sea posible.

2- Transparencia y equidad: la empresa trabaja en minimizar sesgos en sus modelos de IA y se esfuerza por mejorar su precisión y confiabilidad. Además, busca hacer que sus modelos sean justificables para los usuarios.

3- Decisiones tomadas por humanos: Genetec enfatiza que los modelos de IA no deben de tomar decisiones críticas por sí mismos. Los seres humanos deben de estar involucrados en la toma de decisiones en situaciones de seguridad electrónica.

La IA se está implementando en la seguridad electrónica de diversas formas, desde acelerar investigaciones hasta mejorar la ciberseguridad y automatizar tareas de conteo de personas. Genetec promueve la implementación responsable de la IA y aboga por una plataforma de seguridad abierta que permita a los profesionales de la seguridad aprovechar las aplicaciones de la IA que mejor se adapten a sus necesidades.

En resumen, la IA tiene un gran potencial en la seguridad electrónica, pero su uso responsable y consciente es fundamental para evitar riesgos y desafíos no previstos. Genetec lidera el camino hacia la IA responsable en la industria de la seguridad electrónica y se compromete a mantener la privacidad, la equidad y la toma de decisiones humanas en el centro de su enfoque. Más información en: https://www.genetec.com/es/blog/ciberseguridad/las-implicaciones-de-los-grandes-modelos-de-lenguaje-en-la-seguridad-electronica