가나다

대한민국 창업정보의 모든것, 소상공인 창업뉴스


  • Banner #01
  • Banner #02
  • Banner #03
  • Banner #04
  • Banner #05

생성형 AI의 보안 취약점과 대응책

profile_image
작성자

창업뉴스


댓글

0건

조회

49회

작성일 23-07-16 23:43

d686b1383811fce26e2d2f87b5470a14_1724636607_0839.jpg
생성형 AI 등장으로 해커들의 악용이 우려된다

보안 전문가들은 생성형 AI의 등장으로 해커들이 전문적인 지식 없이도 다양한 유형의 악성코드를 쉽게 생성할 수 있다고 지적했습니다. 특히 챗GPT는 부적절한 답변을 회피하도록 설계되었지만, 해커들은 우회적인 질문을 통해 혼동을 일으켜 악성코드를 생성할 수 있다고 알려져 있습니다.

게다가 해커들은 생성형 AI를 이용하여 피싱 메일을 만들 수도 있는 가능성이 있습니다. 생성형 AI의 이미지 생성 기술을 활용하면 가짜 로고 등을 만들어낼 수 있으며, 생성형 AI가 인간의 언어와 유사한 구조로 답변을 하도록 설계되었다는 점을 악용하여 피싱 메일을 실제로 보낸 것처럼 위장할 수 있습니다.

데이터 유출 우려도 존재합니다. 해커가 생성형 AI의 저장 서버를 해킹하는 경우에 데이터가 유출될 수 있을 뿐만 아니라, 생성형 AI 개발사들이 개인정보보호 규정 등을 어기며 불법적으로 데이터를 처리할 수도 있습니다. 또한 사용자가 개인 또는 기관의 기밀 정보를 AI 모델에 입력했을 때, 이 정보가 다른 사용자에게 유출될 가능성도 제기되고 있습니다.

이러한 데이터 유출 우려를 고려하여 삼성전자는 지난 3월에 내부에서의 챗GPT 사용을 제한했습니다. 디바이스 경험 부문은 사내 PC를 통한 챗GPT 사용을 금지하고, 디바이스 솔루션 부문은 챗GPT 사용의 글자 수에 제한을 두었습니다. 또한 카카오와 네이버도 각각 개인정보와 대외비 정보에 대한 챗GPT 사용을 제한하고 경고했습니다.

이에 대해 전문가들은 사용자들이 생성형 AI가 만든 콘텐츠에 대한 변별력을 길러야 한다고 강조하고 있습니다. 또한 GPTZero나 DetectGPT와 같은 생성형 AI 콘텐츠 구별 도구를 적극적으로 활용할 것을 권고하고 있습니다.

앞으로 보안에 대한 더욱 강력한 대책이 마련되어야 한다는 점을 강조하면서, 생성형 AI의 발전은 함께하는 모든 이들의 신중한 대응과 협력이 필수적임을 인지해야 합니다.
추천

0

비추천

0

이동*


정말 최고예요!

신영*


코리아 핀테크 위크 2023 멋지네요

김한*


정말 대책없네요.

등록된 댓글이 없습니다.

많이 보는 기사

  • 게시물이 없습니다.
광고배너2
d686b1383811fce26e2d2f87b5470a14_1724637509_3615.jpg

광고문의 : news.dcmkorea@gmail.com

Partner site

남자닷컴 | 더큰모바일 | 강원닷컴
디씨엠 로그인