AI 기반 Guard 도구는 개인 정보 보호 정책을 탐색합니다.

네트워크에 Guard 프로그램을 도입한 스페인 개발자, AI를 기반으로 다양한 서비스 및 애플리케이션의 개인 정보 보호 정책을 읽고 분석합니다..

서비스 또는 애플리케이션에서 계정을 생성하는 동안 개인 정보 보호 정책을 실제로 읽는 사용자는 거의 없습니다.. 원칙적으로, 상자에 진드기 "동의 함”는 모든 조건을 읽지 않고 넣습니다..

사용자의 삶을 더 쉽게 만들기 위해, 보안 연구원 하비 라메레즈 널리 사용되는 응용 프로그램의 개인 정보 보호 정책을 분석하고 개인 정보 위험을 초래할 수 있는 항목을 찾기 위해 설계된 도구를 만들었습니다..

“개인 정보 보호 정책을 읽어주는 AI. Tinder는 대화와 경기를 공유합니다., Twitter는 귀하의 정보를 판매하고 Instagram은 귀하의 데이터 보안을 보장할 수 없습니다.. 더 많은 것이 있습니다. 확인하러 오세요”, - 선물 하비 라메레즈 그의 가드 트위터.

라미레즈의 생각에 따르면, Guard는 다운로드할 수 있는 AI 기반 애플리케이션이어야 합니다., 하지만 현재 가드는 무료 웹사이트 (응용 프로그램의 베타 버전은 테스트 프로그램 참가자에게 제공됩니다.).

이 사이트는 Twitter와 같은 인기 서비스의 개인 정보 보호 정책을 분석할 수 있습니다., 인스 타 그램, 부싯깃, 왓츠앱, 넷플릭스, 스포티 파이, 레딧과 듀오링고. 이 도구는 아직 모든 기존 애플리케이션을 분석하지 않았습니다., 그러나 사용자는 확인을 위해 새로운 서비스를 제공할 수 있습니다. (예를 들어, 페이스북).

또한 읽기: Windows의 안전성 7 및 서버 2008 ACROS 보안을 보장합니다.

현재, Guard 웹 사이트는 각 개별 서비스가 제기하는 잠재적인 위협에 대한 귀중한 정보를 제공합니다., 위험 수준을 추정하고 분석된 서비스가 연루된 데이터 유출 스캔들에 대해 보고합니다..

분석된 각 애플리케이션은 백분율 및 편지 형식으로 평가를 받습니다.. 예를 들어, 트위터 받은 것만 15% 그리고 등급 “디”, 인스 타 그램 – 21% 그리고 등급 “디”, 그리고 유튜브 – 37% 그리고 등급 “씨”. 주목할만한 점은 전보 만큼 받았다. 105% 그리고 최고등급 A+.

하비 라메레즈, Guard의 소프트웨어를 만든 마드리드 기반 개발자, 자연어 처리 전용 AI 시스템에 관심 (NLP). AI 윤리에도 관심.

또한 읽기: Instagram은 사용자 개인 정보 위협을 제거했습니다.

Rameerez는 Guard를 학문적 실험으로 설명합니다. 실제로 AI 및 NLP에 대한 그의 논문입니다.. 그는 인간이 프라이버시에 대해 어떻게 생각하는지 기계에게 가르치는 것이 목표라고 말했습니다.. 하기 위해서, 가드는 많은 인간의 입력이 필요합니다..

개발자는 청중에게 AI 교육에 도움을 요청합니다., 퀴즈 사이트 통과 및 윤리적 딜레마 해결.

"각 데이터 포인트는 AI가 인간의 프라이버시와 관련하여 허용되는 것과 허용되지 않는 것을 이해하는 데 도움이 됩니다.. 최종 목표는 점점 더 위험한 인터넷에서 우리를 안전하게 지켜줄 수 있도록 기계를 가르치는 것입니다.”, — 웹 사이트에 따르면.

Guard의 경우 우리에게 도움이 되는 NLP 시스템의 예가 있습니다. 앱의 문제가 있는 개인 정보 보호 정책에 대해 경고하고 처음부터 AI를 개발하여 배울 수 있는 기회를 제공합니다..

저자 소개

발디스 콕

보안 엔지니어, 리버스 엔지니어링 및 메모리 포렌식

코멘트를 남겨주세요