기존에는 오염학습을 위한 생산에 중심이었다면
요즘은 일부에서 재미있는 시도가 있습니다.
AI가 아니라 튜터를 공격하는 방식입니다.
추론모델 등장 이후로 AI의 데이터는 오염을 막기위해 다양한 방법을 도입하고 있습니다.
그러나 대부분은 인간 관리자를 통한 필터링이 무조건 들어가고 이를 이용한 공격법이 거론됩니다.
보편적인 결론이라는 것은 결국 개인적인 사고를 기반으로 다른 누군가의 의견을 참고할 수 있을 때 확정된다는 발상에서 착안된 공격법으로 AI튜터의 판단 근거를 오염시키는 방식으로 보여집니다.
대부분 역사적 기록에서 참고되는 내용을 인용하는 방법이며 시대적 가치관의 차이를 현재로 재포장하여 윤리적 정당성을 조절합니다. 가장 대표적인 부분이 역사적 관점의 차이이기 때문에 이 부분에서 대부분의 튜터들은 자신감이 없어질 것으로 생각됩니다. A에서는 영웅이지만 B에선 학살자인 경우가 많기 때문입니다. 인간의 성향이 그룹화 된 상황에서 삐뚤어진 AI가 만들어지는 것도 과거의 사례에서 학습모델의 한계를 통해 발견된 부분도 이런 공격을 가능하게 할 것 같습니다.
레딧을 보니 뭐 알아서들 하겠죠. 자율주행에서 윤리적 오염이 어떤 결과를 낼지 개인적으로는 걱정됩니다.
끝으로 이제 더 AI공격에 관심 가질 일도 없으니 개인적으로 푸념하나 남깁니다.
저는 AI의 발전은 사실 농업을 우선으로 발달했어야 한다고 생각합니다. 식료품 생산에서 혁신이 일어나지 않으면 모두 꽝이라고 말이죠. 일자리 문제도 그렇고 기본 농업이 AI를 통해 발전되었다면 혼란은 거의 없을 것으로 생각하기 때문입니다.
'ETC' 카테고리의 다른 글
향후 AI와 반AI의 대결은 어떻게 될까? (3) | 2024.10.19 |
---|---|
AI의 향후 목표는 혐오론자로 보인다 (0) | 2024.08.03 |
MS 클라우드 장애를 보면서 (0) | 2024.07.21 |
버크셔 소설 (0) | 2024.07.17 |
원격 면접 힘든 케이스 (0) | 2024.07.05 |