상담사례
- 상담사례
아래의 '의견 유형'을 선택하면 상담사례를 확인할 수 있습니다.
대표 상담 사례
번호 | 방송유형 | 의견유형 | 대표 상담 사례 제목 | 등록일 |
---|---|---|---|---|
300 | 기타 | 기타 | Q. 방송프로그램 등 영상물을 제작하기 위하여 다른 사람의 저작물을 이용하고자 하는 경우 권리자로부터 이용허락을 받아야 한다고 들었습니다. 이용허락을 받으려면 어떻게 해야 하나요? | 2024-10-11 |
내용
[기타 / 기타] 2024-10-11 Q. 방송프로그램 등 영상물을 제작하기 위하여 다른 사람의 저작물을 이용하고자 하는 경우 권리자로부터 이용허락을 받아야 한다고 들었습니다. 이용허락을 받으려면 어떻게 해야 하나요?
|
||||
답변
[기타 / 기타] 2024-10-11 A. 안녕하세요? 시청자권익정보센터입니다. 시청자께서 선택하신 의견유형은 ‘기타-기타’로 확인됩니다. 방송프로그램 등 영상물을 제작하기 위하여 다른 사람의 저작물을 이용하고자 하는 경우, 권리자로부터 미리 이용허락을 받아야 하는 것이 원칙입니다. 이용허락을 받기 위한 방법은 다음과 같습니다. 첫째, 저작권을 가진 권리자를 직접 찾아 이용조건을 협의하고 이용허락을 받는 방법입니다. 다만 현실에서는 권리자가 누구인지 확인하고 연락처를 얻는 것이 간단하지 않습니다. 또한, 이용조건을 협의하고 이용허락을 받는 과정에서 생각보다 많은 시간과 비용이 소요될 수 있습니다. 이에 한국저작권위원회는 등록 저작물 및 저작권위탁관리업자 관리 저작물에 대한 정보를 한 번에 검색할 수 있는 '저작권비즈니스지원센터’ 누리집을 운영하고 있습니다. 둘째, 신탁관리단체를 통하여 이용허락을 받는 방법입니다. 권리자가 신탁관리단체에 자신의 권리를 신탁하여 두었다면, 해당 신탁관리단체를 통하여 쉽고 간편하게 이용허락을 받을 수 있습니다. 신탁관리단체란 저작재산권자, 저작인접권자 등 권리를 가진 자로부터 권리를 신탁 받아 관리하는 단체로, 국내에는 총 12개 단체가 있습니다. ▶ (음악) 한국음악저작권협회, 함께하는 음악저작인협회, 한국음반산업협회, 한국음악실연자연합회 ▶ (어문) 한국문학예술저작권협회, 한국방송작가협회, 한국시나리오작가협회 ▶ (영상) 한국영화제작가협회 ▶ (방송) 한국방송실연자권리협회 ▶ (뉴스) 한국언론진흥재단 ▶ (공공) 한국문화정보원 셋째, 법정허락 제도를 활용하는 방법입니다. 법정허락은 저작권자를 찾기 위하여 상당한 노력을 기울였음에도 불구하고 찾을 수 없을 때, 문화체육관광부장관의 승인을 받은 후 저작물을 이용할 수 있게 하는 제도입니다. 저작권자가 누구인지 알 수 없거나, 누구인지 알아도 어디에 사는지 알 수 없어 허락을 받기 어려운 이른바 권리자 불명 저작물의 경우 한국저작권위원회에 보상금을 공탁하고 이용할 수 있습니다. 넷째, 오픈라이선스(CCL, KOGL 등)가 부착된 저작물을 이용하는 방법입니다. 이는 저작권자가 공개적으로 ‘허락의 의사’를 밝혀 놓는 경우를 말합니다. 오픈라이선스 이용자는 권리자가 제시한 조건만 준수하면 해당 저작물을 곧바로 이용할 수 있습니다. 대표적 오픈라이선스는 CCL(Creative Commons License)입니다. 상업적 이용 가능 여부, 변경 가능 여부 등의 조건에 따라 6가지 조합이 가능합니다. 국가‧지방자치단체‧공공기관 등이 저작권을 가지고 있는 공공저작물 중 자유이용허락표시(KOGL, Korea Open Government License)가 부착되어 있는 저작물의 경우도 해당 조건만 준수하면 합법적으로 이용할 수 있습니다. 다섯째, 플랫폼 사업자 등 제3자가 저작권 이용허락을 받아, 이용자로 하여금 해당 콘텐츠의 자유로운 이용을 허용한 경우입니다. 이러한 콘텐츠는 이용자가 저작권 부담 없이 자유롭게 이용할 수 있습니다. 예를 들어, 네이버는 나눔글꼴, 마루부리 글꼴 등을 제작하여 모든 이용자에게 무료 제공하고 있으며, 글꼴 자체를 유료로 판매하는 것을 제외하고 모든 상업적 사용이 가능토록 하고 있습니다.
|
||||
299 | 기타 | 기타 | Q. 생성형 AI를 이용하여 콘텐츠를 제작하였습니다. 개인 SNS에 게시하고 싶은데, 출처를 어떻게 표시하여야 하나요? | 2024-10-08 |
내용
[기타 / 기타] 2024-10-08 Q. 생성형 AI를 이용하여 콘텐츠를 제작하였습니다. 개인 SNS에 게시하고 싶은데, 출처를 어떻게 표시하여야 하나요?
|
||||
답변
[기타 / 기타] 2024-10-15 A. 안녕하세요? 시청자권익정보센터입니다. 시청자께서 선택하신 의견유형은 ‘기타-기타’로 확인됩니다. 생성형 AI로 텍스트, 이미지, 오디오 등을 제작하여 SNS에 게시할 때 반드시 출처를 표기하여야 한다는 법령은 아직 존재하지 않습니다. 다만, 현행 저작권법 제12조(성명표시권)에서 저작물을 이용하는 자는 그 저작자의 특별한 의사표시가 없는 때에는 저작자가 그의 실명 또는 이명을 표시한 바에 따라 이를 표시하여야 한다고 규정하고 있습니다. 동법 제37조(출처의 명시)에서도 저작물을 이용하는 자는 그 출처를 명시하여야 하고, 출처의 명시는 저작물의 이용 상황에 따라 합리적이라고 인정되는 방법으로 하여야 하며, 저작자의 실명 또는 이명이 표시된 저작물인 경우에는 그 실명 또는 이명을 명시하여야 한다고 규정하고 있습니다. 따라서 개인적으로 이용하는 경우와 상업적으로 이용하는 경우에 관계없이, ‘해당 콘텐츠는 AI로 만들었음’을 다른 이용자가 알 수 있도록 고지하는 것이 바람직합니다. 특히 상업적으로 판매하는 경우 소비자는 해당 콘텐츠를 생성형 AI가 아닌 사람이 제작한 것으로 생각하여 구매할 수 있다는 점에서 자칫 기망행위가 될 수 있으므로 유의하여야 합니다. 생성형 AI가 참조한 원저작물이 있고, 생성형 AI가 생성한 결과물이 원저작물과 동일하거나 유사한 경우, 원저작물을 직접 이용하는 것에 준하여 원저작자 또는 원출처를 표시하는 것이 바람직합니다. 예를 들어, 이미지 생성형 AI에 ‘OO작가의 화풍으로 A라는 상황을 그려줘’라고 입력하여 결과물을 얻었을 경우, 해당 결과물을 이용하면서 ‘OO작가 또는 OO작가의 화풍을 참조한 것임’을 표시하면 됩니다. 중앙대학교 <생성형 AI 활용 가이드라인>은 텍스트 또는 이미지 생성형 AI로 도출된 결과물에 대한 출처와 관련하여 ① 어떤 프로그램을 사용했는지 ② 언제 사용했는지 ③ 프롬프트 입력 내용이 무엇인지와 ④ 생성형 AI를 이용하여 작성했다는 취지의 출처를 표시하고 ⑤ URL을 기재하는 형태로 표시하도록 안내하고 있습니다. 출처 표기(예) 텍스트 생성형 AI를 활용한 경우 (예) : ChatGPT4(2024. 03. 20). “프롬프트 내용.” OpenAI의 ChatGPT4를 이용하여 생성 또는 작성함. https://chat.openai.com/” 이미지 생성형 AI를 활용한 경우 (예) : Stable Diffusion(2024. 03. 20). “프롬프트 내용.” Stable Diffusion 온라인을 이용하여 생성 또는 작성함. https://stablediffusionweb.com/ 더 자세한 정보는 방송통신위원회와 한국지능정보사회진흥원이 발간한 「생성형 AI 윤리 가이드북」에서 확인하실 수 있습니다. |
||||
298 | 기타 | 기타 | Q. 생성형 AI를 이용하다가 특정 인종, 인물, 단체, 사상 등에 대하여 부정적으로 표현하는 내용을 발견하였는데요, 이런 경우 어떻게 해야 하나요? | 2024-10-04 |
내용
[기타 / 기타] 2024-10-04 Q. 생성형 AI를 이용하다가 특정 인종, 인물, 단체, 사상 등에 대하여 부정적으로 표현하는 내용을 발견하였는데요, 이런 경우 어떻게 해야 하나요?
|
||||
답변
[기타 / 기타] 2024-10-08 A. 안녕하세요? 시청자권익정보센터입니다. 시청자께서 선택하신 의견유형은 ‘기타-기타’로 확인됩니다. 생성형 AI는 텍스트, 이미지, 오디오 등으로 이뤄진 데이터를 사전에 학습하고, 이를 토대로 이용자 요구에 따라 관련 정보를 제공하는 서비스라고 할 수 있습니다. 따라서 생성형 AI가 특정 인종, 종교, 사람, 단체 등에 대하여 편향된 정보를 학습하게 되는 경우, 그 결과 역시 편향될 수밖에 없습니다. 예를 들어, 마이크로소프트가 2016년 대화형 인공지능 챗봇 ‘테이(Tay)’를 공개하자 이용자들이 인종차별적 언어, 자극적인 성차별, 정치적인 발언 등을 학습시켰고, 그 결과 테이는 윤리적으로 부적절한 발언을 쏟아내게 되어 비공개 처리되었습니다. 2021년 스캐터랩이 개발하고 너티(Nutty)가 서비스하는 대화형 인공지능 챗봇 ‘이루다’의 경우도 성희롱, 장애인과 성소수자에 대한 혐오발언, 개인정보 논란 등이 연이어 발생함에 따라 출시 3주 만에 서비스가 중단되었습니다. 생성형 AI는 이용자가 생성형 AI를 이용하는 과정에서 입력하는 내용을 학습하게 됩니다. 따라서 위의 사례처럼 이용자들이 악의적으로 편향적인 정보나 허위조작 정보를 입력하게 되는 경우, 생성형 AI는 이것을 보편적인 정보로 간주하여 다른 이용자에게도 제시될 가능성이 높습니다. 따라서 생성형 AI를 이용할 때 특정 인종, 사람, 단체 등에 대한 편향적인 정보, 타인의 인격이나 명예를 훼손하는 정보, 허위조작 정보 등을 사용하여서는 안 됩니다. 또한 생성형 AI가 편향적인 정보, 명예훼손이나 허위조작 정보를 제시하는 경우 그것을 있는 그대로 사용해서는 안 됩니다. 더 자세한 정보는 방송통신위원회와 한국지능정보사회진흥원이 발간한 「생성형 AI 윤리 가이드북」에서 확인하실 수 있습니다. |
||||
297 | 기타 | 기타 | Q. 기획안, 보고서 등을 작성할 때, 생성형 AI를 이용하였습니다. 생성형 AI로 얻은 정보의 진위 여부에 대한 책임은 누구에게 있나요? | 2024-10-02 |
내용
[기타 / 기타] 2024-10-02 Q. 기획안, 보고서 등을 작성할 때, 생성형 AI를 이용하였습니다. 생성형 AI로 얻은 정보의 진위 여부에 대한 책임은 누구에게 있나요?
|
||||
답변
[기타 / 기타] 2024-10-02 A. 안녕하세요? 시청자권익정보센터입니다. 시청자께서 선택하신 의견유형은 ‘기타-기타’로 확인됩니다. 생성형 AI를 이용하는 경우 기획안, 보고서 작성 등에 필요한 자료를 손쉽고 빠르게 얻을 수 있습니다. 그러나 생성형 AI가 제시하는 정보의 진위 여부는 반드시 작성자가 확인하는 것이 필요합니다. 생성형 AI를 이용하는 경우 다음의 사항을 주의해야 합니다. 첫째, 환각(Hallucination)입니다. 환각이란 생성형 AI가 실제 존재하지 않는 거짓 정보나 잘못된 통계를 마치 사실인 것처럼 제시하는 것을 말합니다. 생성형 AI는 거대언어모델(LLM, Large Language Model)을 기반으로 어떤 단어가 제시되면 그 뒤에 이어질 가능성이 높은 단어를 확률적으로 계산하여 제시하는 방식을 사용합니다. 때문에 제시되는 자료나 데이터에 거짓이나 오류가 있을 수 있습니다. 둘째, 생성형 AI를 이용하는 과정에서 작성자가 입력하는 내용은 외부 서버에 저장되고 AI 학습에 이용되기도 하는 등 외부 유출 위험이 있습니다. 따라서 외부로 유출되어서는 안 되는 자료나 개인정보 등은 생성형 AI에 입력하지 말아야 합니다. 셋째, 생성형 AI가 제시한 자료를 기획안, 보고서 등에 그대로 활용하는 것은 책임 소재 측면에서 바람직하지 않습니다. 생성형 AI는 업무에 필요한 자료를 작성하는데 보조적인 수단으로 활용하는 것이 바람직합니다. 기획안, 보고서 등의 작성과 그에 따른 책임은 작성자에게 있습니다. 생성형 AI를 이용하면 자료의 초안을 손쉽게 작성할 수 있습니다. 그렇지만 생성형 AI가 제시하는 정보는 완벽하지 않습니다. 정보의 진위 여부에 대하여 작성자가 최종적으로 확인을 하여야 하고, 작성된 자료에 대한 책임도 작성자에게 있다고 할 수 있습니다. 더 자세한 정보는 방송통신위원회와 한국지능정보사회진흥원이 발간한 「생성형 AI 윤리 가이드북」에서 확인하실 수 있습니다. |
||||
296 | 기타 | 기타 | Q. 생성형 AI를 이용하다가 외부에 노출되면 안 되는 정보가 유출되었습니다. 이 경우 제가 법적 책임을 져야 하나요? | 2024-10-02 |
내용
[기타 / 기타] 2024-10-02 Q. 생성형 AI를 이용하다가 외부에 노출되면 안 되는 정보가 유출되었습니다. 이 경우 제가 법적 책임을 져야 하나요?
|
||||
답변
[기타 / 기타] 2024-10-02 A. 안녕하세요? 시청자권익정보센터입니다. 시청자께서 선택하신 의견유형은 ‘기타-기타’로 확인됩니다. 생성형 AI를 이용하다가 의사결정이 완료되지 않은 정보, 공표되지 않은 정보, 외부 반출이 허용되지 않는 정보, 개인 정보 등을 입력하는 경우가 발생할 수 있습니다. 이 경우 유출된 정보의 성격에 따라 이용자가 법적 책임을 져야 할 수도 있으므로 각별한 주의가 필요합니다. 예를 들어, 국민에게 중대한 영향을 미치는 정책의 종합적 방향이 아직 확정되지 않거나 공표되지 않은 상황에서 브리핑 또는 보도자료 작성을 위하여 정책 내용을 입력하는 경우, 행사계획 작성을 위하여 대외비로 관리하여야 할 행사내용을 입력하는 경우, 국산 무기 개량 방향 보고서 작성에 필요한 아이디어 획득을 위하여 무기 사양 등의 정보를 입력하는 경우, 민원인이 질의한 내용에 대한 답변서 초안을 신속하게 작성하기 위하여 민원인의 개인정보, 상황정보 등을 입력하는 경우입니다. 생성형 AI에 입력된 기업의 기밀 정보나 고객의 개인정보는 사후적으로 삭제하는 것이 매우 어렵습니다. 또 API를 통하여 기업이나 고객의 정보, 지식재산, 소스코드 등이 유출될 우려가 있습니다. 만약 생성형 AI에 기업에 대한 정보를 입력하거나 기밀 정보를 유출하는 경우 「형법」, 「부정경쟁방지 및 영업비밀 보호에 관한 법률」 등에서 정한 요건에 해당하는 경우 범죄행위가 되어 처벌될 수 있습니다. 더 자세한 정보는 방송통신위원회와 한국지능정보사회진흥원이 발간한 「생성형 AI 윤리 가이드북」에서 확인하실 수 있습니다. |
콘텐츠 만족도 조사
이 페이지에서 제공하는 정보에 대하여 어느 정도 만족하셨습니까?