Expertos recomiendan evitar estas palabras al usar inteligencia artificial, descubre por quéInteligencia Artificial

Expertos recomiendan evitar estas palabras al usar inteligencia artificial, descubre por qué

Te mostramos las razones por las que no es confiable suministrar información personal a estas tecnologías

Javier Neri

Por: Javier Neri  

En la era digital actual, no cabe duda que los chatbots de inteligencia artificial se han vuelto parte de nuestra vida cotidiana, facilitando tareas y proporcionando respuestas a nuestras preguntas más urgentes, sin mencionar su adopción por parte de diversas industrias para acelerar el trabajo. Sin embargo, detrás de su aparente utilidad, se esconden riesgos que podrían comprometer nuestra privacidad y seguridad.

Ante este panorama, el diario The Sun consultó a Stan Kaminsky, experto en ciberseguridad de la reconocida firma Kapersky sobre los riesgos de brindar información personal a chatbots como ChatGPT.

Según Kaminsky, revelar datos como nuestro nombre real puede ser peligroso debido a que no existen garantías de que nuestra información vaya a ser almacenada o protegida de forma correcta. Aunque la tentación de compartir detalles sobre nosotros mismos puede ser grande, enviar datos como contraseñas, números de documentos, direcciones o números telefónicos podría exponer esta información en internet.

¿Qué sucede con nuestra información al usar IA?

El motivo de esta advertencia tiene que ver con una de las preocupaciones principales de la IA: ¿qué sucede con la información que compartimos con estos chatbots?

Cuando interactuamos con un chatbot de inteligencia artificial, nuestras conversaciones suelen ser almacenadas en bases de datos para mejorar el rendimiento del programa o para revisión por parte de moderadores humanos. Este almacenamiento puede plantear riesgos de seguridad si la información no está adecuadamente protegida. Además, en el caso de errores técnicos o fallos de seguridad, existe la posibilidad de que nuestras conversaciones sean accesibles para otros usuarios del mismo programa, comprometiendo así nuestra privacidad y exponiendo nuestros datos personales a terceros sin nuestra autorización.

Además, nuestros chats podrían ser revisados por moderadores humanos, lo que aumenta aún más el riesgo de exposición.

Se trata, pues de exponerse a situaciones de vulnerabilidad que pueden acarrear consecuencias graves, como se ha registrado en casos de filtraciones de empresas al entablar conversaciones con ChatGPT, como demostró la experta Katherine Lee en un tweet de noviembre del año pasado:

¿Es seguro subir documentos a chatbots?

Otro aspecto a tener en cuenta es la subida de documentos a estos programas. Aunque pueda parecer conveniente, subir archivos como documentos de trabajo puede implicar riesgos significativos. Existe la posibilidad de que información confidencial o secretos comerciales sean filtrados inadvertidamente, lo que podría tener repercusiones graves para empresas y usuarios por igual.

Ante estos riesgos, en HoyCripto te aconsejamos ser cauteloso y mantener las conversaciones con chatbots lo más anónimas posible, recalcando el evitar compartir información personal sensible y, en caso de necesidad, sustituir datos sensibles por asteriscos o “REDACTADO” para proteger tu privacidad.

Si bien los chatbots de inteligencia artificial pueden brindar comodidad y eficiencia en nuestras interacciones en línea, es crucial comprender los riesgos asociados con el intercambio de información personal. Mantener la precaución y la privacidad en línea es fundamental para proteger nuestra seguridad y la de nuestros datos en un mundo digital cada vez más interconectado.

Te puede interesar: Así podría la Inteligencia artificial resolver el misterio más grande del universo

Temas

Más Noticias