[Mostly AI-Generated] 인공지능 시대에는 미디어 정책에 어떤 내용이 포함되어야 할까? (ACM SIGCHI)

Screenshot

ACM SIGCHI(The Association for Computing Machinery’s Special Interest Group on Computer-Human Interaction)는 인간-컴퓨터 상호작용(Human-Computer Interaction, HCI) 분야의 연구와 발전을 촉진하는 전문 단체입니다. SIGCHI는 HCI 분야에서 가장 권위 있는 단체이며, 산하에는 CHI (Conference on Human Factors in Computing Systems), CSCW (Computer Supported Cooperative Work and Social Computing), UIST (User Interface Software and Technology Symposium), IUI (Intelligent User Interfaces), DIS (Designing Interactive Systems) 등과 같은 다양한 학회들이 있습니다.

ACM SIGCHI가 운영하는 학회의 논문들 및 YouTube 채널에 업로드된 영상들(논문 발표 영상 포함)에게 “인공지능 시대에는 미디어 정책에 어떤 내용이 포함되어야 할까?”에 대해 질문을 하고 답변을 추출해 보았습니다.


ACM SIGCHI 에서는 “인공지능(AI) 시대에 미디어 정책에 포함되어야 할 내용“에 대해 다음과 같이 언급하고 있습니다.  

AI와 자동화 기술의 사회적 영향:

  • AI와 자동화 기술이 미디어 산업에 도입되면서, 기술의 잠재력을 과대평가하고 이를 운영하는 노동자들의 가치를 저평가하는 경향이 있습니다. 따라서, 미디어 정책에는 이러한 기술 도입이 노동자들에게 미치는 영향을 고려하고, 노동자들의 권익을 보호하는 내용이 포함되어야 합니다. 이는 AI 기술이 불공정하거나 차별적인 결과를 초래하지 않도록 하는 데 중요합니다. [1]

사회적 도전 과제 반영:

  • AI 기술 개발이 기술 중심적이고 시장 주도적이라는 비판을 받고 있으며, 사회적 도전 과제를 충분히 반영하지 못하고 있습니다. 따라서 사회 과학 전문가들이 AI 채택 정책을 알리는 중요한 역할을 수행해야 하며, 특히, 도시화 분야에서 AI가 미래 도시들에 미치는 영향을 상상하는 것이 중요합니다. [2]

AI 기술의 기회와 도전:

  • 미디어 산업에서 AI 기술의 도입은 장기적인 연구와 단기적인 구현 필요성 사이의 균형을 맞추는 것이 중요합니다. 또한, 비즈니스-투-컨슈머(B2C), 방송사, 비즈니스-투-비즈니스(B2B) 미디어 기관의 관점을 결합하는 것이 필요합니다. [7]

책임성과 투명성:

  • AI와 머신러닝(ML) 기술의 발전으로 인해 책임성과 투명성, 차별, 공정성 등의 문제가 제기되고 있습니다. 이러한 문제를 해결하기 위해 AI 리터러시를 강화해야 하며, 특히 직장에서의 AI 리터러시 수준을 높이는 것이 중요합니다. [3]
  • AI가 콘텐츠 생성에 사용되었는지 여부를 명확히 알리는 것이 중요합니다. AI가 생성한 콘텐츠와 인간이 생성한 콘텐츠를 구분할 수 있도록 하여 신뢰성을 높여야 합니다. 사람들은 AI가 사용된 콘텐츠를 구별할 수 없을 때\, 그 사용 여부에 대해 신경 쓰지 않을 수 있지만\, 투명성은 여전히 중요한 문제입니다. [9][14]

미디어 커뮤니케이션:

  • AI를 이용한 커뮤니케이션은 미디어에서 중요한 역할을 할 수 있습니다. 그러나, 청중의 신뢰를 받는 것은 여전히 어려운 과제이며, 이를 해결하기 위해 설명 가능한 AI(Explainable AI)에 대한 연구가 필요합니다. [10]
  • AI와 자동화 기술이 뉴스 생산과 배포에 미치는 영향을 고려해야 합니다. AI가 뉴스의 품질과 출처 다양성에 미치는 영향을 평가하고, 이를 개선하기 위한 정책이 필요합니다. [11]

신뢰, 프라이버시, 보안, 정보의 퀄리티:

  • 새로운 기술들이 신뢰, 프라이버시, 보안 등의 추상적 가치를 전달하는 역할을 해야 합니다. 이를 위해 영화 제작과 제품 디자인을 결합하여 이러한 가치를 설명할 수 있습니다. [4]
  • AI가 생성하는 콘텐츠는 진실과 거짓의 경계를 더욱 흐리게 만들 수 있습니다. 따라서, 미디어 정책에는 AI를 이용한 프로파간다와 허위 정보의 확산을 방지하기 위한 규제 및 교육 방안이 포함되어야 합니다. [8]
  • AI가 생성한 콘텐츠와 정보의 퀄리티를 평가하고 관리하는 체계가 필요합니다. 이는 정보의 정확성, 적시성, 관련성을 평가하는 기준을 포함해야 합니다. 예를 들면, AI 기반 음성 비서가 제공하는 정보의 퀄리티를 평가하는 방법론이 미디어 정책에 반영될 수 있습니다. [15]
  • AI가 생성하는 정보의 퀄리티를 주기적으로 감사하는 것이 필요합니다. 정보의 관련성, 정확성, 시의성을 평가하고, 이를 기반으로 AI 시스템을 개선하도록 하는 정책이 필요합니다. [12]

디지털 리터러시 교육:

  • AI 기술의 발전에 따라 일반 대중과 미디어 종사자들에게 디지털 리터러시 교육을 강화해야 합니다. 이는 AI 기술의 이해와 활용 능력을 높이는 데 중요하므로, 미디어 정책에 반영될 수 있습니다. [16]

창작 산업과 AI:

  • AI가 창작 산업에 미치는 영향을 고려하여, 데이터 사용, 저작권, 예술가 보상, 창작 지식 노동의 자동화, 일자리 대체 등의 문제를 해결하기 위한 정책이 필요합니다. [13]

공공 부문 AI 시스템의 책임 있는 설계:

  • 공공 부문에서 AI 시스템을 도입할 때에는 초기 단계에서의 의사결정이 중요합니다. 예를 들어, 시스템의 목표, 사회적 및 법적 고려사항, 데이터 및 모델링 제약, 조직적 거버넌스 요소 등을 논의하는 구조화된 프로세스를 만들 필요가 있습니다. [5]

시스템의 Contestability:

  • AI 시스템에 대한 Contestability(이의 제기 가능성)를 갖추도록 하는 것이 중요합니다. 이를 통해 시스템이 인간의 자율성과 존엄성을 존중하도록 해야 합니다. [6]

주요 키워드

  • AI Literacy
  • Accountability
  • Transparency
  • Trust
  • Privacy
  • Security
  • Contestability
  • Public Sector AI
  • Media Architecture
  • Automation
  • Worker Rights
  • Explainable AI
  • News Production
  • Information Quality
  • Creative Industry
  • Copyright
  • Social Responsibility
  • Propaganda and Misinformation

Source URL 리스트


코멘트

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다