seguridad y privacidad

7 hábitos de seguridad y privacidad
a la hora de usar inteligencia artificial

Noticias y Novedades

Proteger nuestra información es clave en un mundo impulsado por la IA. Descubrí cómo mejorar tu seguridad y privacidad con estos hábitos esenciales.

 

El crecimiento acelerado de la inteligencia artificial plantea desafíos importantes en materia de seguridad y privacidad. Desde la protección de datos hasta la configuración de accesos, es fundamental adoptar hábitos que minimicen riesgos y nos permitan aprovechar esta tecnología sin comprometer nuestra información.

 

1 – Configurar correctamente la seguridad y privacidad

 

Antes de compartir información en cualquier herramienta de Inteligencia Artificial, se debe tomar conocimiento de todas las configuraciones de privacidad. De este modo poder entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro.

¿Otro tip? Revisar periódicamente términos y políticas de la aplicación, por cualquier cambio o nueva opción de seguridad y privacidad que esté disponible.

 

2 – Evitar compartir datos personales y sensibles

 

Una de las medidas más importantes que puedes implementar es no ingresar información personal, como por ejemplo contraseñas o datos bancarios, en cualquier chat de IA.

En concreto, estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos sean almacenados y expuestos en el futuro.

En referencia a este punto, un informe realizado por Microsoft señala que son muchas las organizaciones que carecen de control sobre las aplicaciones de IA que se utilizan en su entorno, quiénes las emplean y qué datos se comparten. Esto, obviamente, las expone a incidentes críticos.

 

3 – Proteger las cuentas

 

Para proteger tu cuenta de ChatGPT o de cualquier otra herramienta de Inteligencia Artificial, es muy importante utilizar contraseñas robustas. También agregar una capa de protección extra activando el doble factor de autenticación (2FA) cuando estuviera disponible.

El acceso a una cuenta de ChatGPT, por ejemplo, podría exponer al historial de conversaciones y la información almacenada en estos chats. Esta información podría luego utilizarse para realizar ataques de ingeniería social sofisticados basados en información de la cuenta o incluso para comercializar la información.

 

4 – Desactivar el historial de los chats

 

Si bien las herramientas de Inteligencia Artificial habitualmente mantienen almacenados los historiales de conversaciones, existen algunas que permiten elegir y desactivar esta opción. Entonces, si deseas tener mayor privacidad, te invitamos a explorar esta alternativa. Además, estarías a salvo en caso de alguna posible filtración, como la ocurrida en 2023 con ChatGPT.

 

5 – No confiar completamente en las respuestas recibidas

 

Es importante remarcar que los modelos de IA pueden entregar información certera, pero también generar respuestas incorrectas o sesgadas. Como usuario, y para garantizar nuestra seguridad (sobre todo en temas sensibles como los legales, financieros o médicos) siempre es aconsejable verificar y contrastar la información obtenida con fuentes oficiales.

Por otra parte, los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas. De esta manera un atacante podría inducir a la IA a responder brindando instrucciones erróneas, proporcionar información falsa o extraer datos sensibles de una conversación.

 

6 – Prestar atención a los enlaces y archivos generados

 

Es importante remarcar que los modelos de IA pueden entregar información certera, pero también generar respuestas incorrectas o sesgadas. Como usuario, y para garantizar nuestra seguridad (sobre todo en temas sensibles como los legales, financieros o médicos) siempre es aconsejable verificar y contrastar la información obtenida con fuentes oficiales.

Por otra parte, los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas. De esta manera un atacante podría inducir a la IA a responder brindando instrucciones erróneas, proporcionar información falsa o extraer datos sensibles de una conversación.

 

7 – Tener cuidado con la instalación de extensiones y Plugins

 

Existen una infinidad de extensiones y complementos para el navegador que ofrecen funcionalidades basadas en IA. También plugins para gestores de contenido y otras plataformas. La descarga de fuentes no confiables puede aumentar el riesgo de infección con programas maliciosos.

 

Conclusión

 

Como usuarios, y con el objetivo de disfrutar de todo el potencial de la inteligencia artificial, es importante contemplar el papel que juegan tanto la seguridad como la privacidad.

Una correcta gestión de ambos permitirá utilizar esta nueva tecnología, pero sin poner en riesgo la información ni lo que cada persona elija mantener para su intimidad. Para las empresas, la adopción de herramientas de Inteligencia Artificial supone el desafío de integrarlas de manera segura para reducir los riesgos que representa como superficie de ataque.

La creación de políticas o normas de control y uso se tornan cada vez más importantes y necesarias para prevenir riesgos, así como la capacitación continua para educar y concientizar sobre el uso y riesgos que conlleva el uso de herramientas de IA. Iniciativas como la de MITRE, que promueve el intercambio seguro de incidentes relacionados con IA, demuestran la importancia de la colaboración y el aprendizaje continuo para protegernos frente a las amenazas emergentes en este campo.

 

 

Podés leer el artículo completo en el siguiente enlace:

7 hábitos de seguridad y privacidad a la hora de usar inteligencia artificial

 

×