අවසන් වරට යාවත්කාලීන කලේ 2021/07/21
විකිපීඩියා මඟින් නිර්වචනය කර ඇති පරිදි, “ඩීප්ෆේක්ස් (Deepfakes / ගැඹුරු ව්යාජත්වය) යනු පුද්ගලයෙකුගේ දැනට පවතින ඡායාරූපයක් හෝ වීඩියෝ පටයක් ඇසුරෙන් කෘතිම ස්නායුක ජාල (neural networks) භාවිතා කරමින් වෙනත් කෙනෙකු හා සමාන තත්ත්වයට පත් කරන මාධ්යයකි. ඒවා බොහෝ විට ස්වයංක්රීය කේත (auto encoders) සහ උත්පාදක එදිරිවාදී ජාල (generative adversarial networks / GANs) ලෙස හඳුන්වන යන්ත්ර ඉගෙනීමේ ක්රම (machine learning techniques) උපයෝගී කරගනිමින් පවත්නා මාධ්ය (සත්ය ඡායාරූපය / වීඩියෝව) සඟවා, එහෙත් එය ප්රභව මාධ්ය සේ ඒකාබද්ධ කර නිර්මාණය කරයි. කීර්තිමත් හෝ ප්රසිද්ධ පුද්ගලයන්ගේ චරිතයට හානි කරන කාමුක දර්ශන, පළිගැනීමේ කාමුක දර්ශන, ව්යාජ ප්රවෘත්ති, ප්රෝඩාවන් සහ මූල්ය වංචා සිදුවීම් සමඟ ඩීප්ෆේක්ස් පුළුල් අවධානයක් ලබා ගෙන ඇත. කර්මාන්ත හා රජය යන දෙඅංශයෙන්ම මේවායේ භාවිතය පිළිබඳව හඳුනාගෙන ඒවා සීමා කරන ලෙස ප්රතිචාර දක්වා ඇත.” https://en.wikipedia.org/wiki/Deepfake#/media/File:Deepfake_example.gif
ගැඹුරු ඉගෙනුම් පද්ධතියකට ඉලක්කගත පුද්ගලයෙකුගේ ඡායාරූප සහ වීඩියෝ විවිධ කෝණවලින් අධ්යයනය කිරීමෙන් සහ එහි කථන රටා, හැසිරීම අනුකරණය කිරීමෙන් ව්යාජ එකක් නිපදවිය හැක්කේ එම ඡායාරූප / වීඩියෝ සත්ය යැයි විශ්වාස කළ හැකි මට්ටමක තබමිනි.
මෙම තාක්ෂණය සිනමා කර්මාන්තයේ භාවිතා විය. 2018 අගෝස්තු මස බර්කලි හි පිහිටි කැලිෆෝනියා විශ්ව විද්යාලයේ පර්යේෂකයන් විසින් AI භාවිතා කරමින් දක්ෂ නර්තන හැකියාවන් පිළිබඳ හැඟීමක් ඇති කළ හැකි ව්යාජ නැටුම් යෙදුමක් හඳුන්වා දුන්හ. මෙම ව්යාපෘතිය මගින් ඩීප්ෆේක්ස් මුළු ශරීරයටම ගලපා පුළුල් විය; ඊට පෙර හිස හෝ මුහුණේ කොටස් කෙරෙහි පමණක් අවධානය යොමු කරමින් එය සිදු විය.
වාණිජ සංවර්ධනය 2018 ජනවාරි මාසයේදී ‘ෆේක්ඇප්’ (Fake App / ව්යාජ යෙදුම) නමින් ලියාපදිංචි කළ ඩෙස්ක්ටොප් යෙදුමක් දියත් කරන ලදී. මෙම යෙදුම පරිශීලකයන්ට (users) ඉතා පහසුවෙන් එකිනෙකාගේ මුහුණු හුවමාරු කර වීඩියෝ නිර්මාණය කිරීමට සහ බෙදා හදා ගැනීමට (share) ඉඩ සලසයි. 2019 වන විට, ‘ෆේස්ස්වැප්’ (Faceswap / මුහුණු හුවමාරුව) සහ විධාන රේඛා පාදක කරගත් ‘ඩීප්ෆේස්ලැබ්’ (DeepFaceLab / ගැඹුරු මුහුණු විද්යාගාරය) වැනි විවෘත-මූලාශ්ර (open-source) මෘදුකාංග විකල්පයන් විසින් ෆේක්ඇප් අභිබවා ගොස් ඇත.
වංචාවක් ලෙස සමාජ ඉංජිනේරු වංචාවන්හි (social engineering scams) කොටසක් ලෙස ශ්රව්ය (audio) ඩීප්ෆේක්ස් භාවිතා කර ඇති අතර එමඟින් විශ්වාසදායක පුද්ගලයෙකුගෙන් උපදෙස් ලැබෙන ලෙස මවා පාමින් මිනිසුන් රවටා ඇත. 2019 දී එක්සත් ජනපදයේ බලශක්ති සමාගමක ප්රධාන විධායක නිලධාරියෙකුව දුරකථනයෙන් වංචා කරනු ලැබුවේ එම සමාගමේ මව් සමාගමේ (parent company) ප්රධාන විධායකයාගේ හඬ අනුකරණය සඳහා ශ්රව්ය ගැඹුරු තාක්ෂණය භාවිතා කළ පුද්ගලයෙකු විසින් යූරෝ 220,000 ක් හංගේරියානු බැංකු ගිණුමකට මාරු කරන ලෙස නියෝග කරමින්ය. වංචාකරු විසින් තුන් වතාවක් අමතා දෙවන ගෙවීමක් ඉල්ලා සිටි නමුත් ප්රධාන විධායක නිලධාරියා විසින් ඇමතුම ලබා දෙන ලද තැනැත්තාගේ දුරකථන අංකය ඔස්ට්රියානු අංකයක් බව වටහාගත් විට එය ප්රතික්ෂේප කරන ලදී.
සුප්රසිද්ධ දේශපාලන චරිත වැරදි ලෙස නිරූපණය කිරීම සඳහා ද ඩීප්ෆේක්ස් සහිත වීඩියෝ භාවිතා කර ඇත. ජනාධිපතිවරයකු පිස්සු දේවල් පවසන වීඩියෝවක් වැනි ප්රෝඩාවන් නිර්මාණය කිරීමට පවා එය යොදා ගත හැකිය. https://www.youtube.com/watch?v=C_RAimMMslw
එපමණක් නොව, මිනිසුන්ට හිරිහැර කිරීමේ හෝ හානි කිරීමේ අරමුණින් මෙම තාක්ෂණය තුළින් කාමුක දර්ශන ඇති චිත්රපටවලටද පුද්ගලයින්ව ඇතුළත් කළ හැකිය. ඒ අනුව, වීඩියෝ නිර්මාණයක සත්යාපනය හෝ විශ්වසනීයත්වය පිළිබඳ ඩීප්ෆේක්ස් තීරණාත්මක කාරණයක් හෝ සැකයක් බවට පත් වනු ඇත.
වර්තමාන ලෝකයේ, මෙම තාක්ෂණය පවතින අතර එය ක්රියාවටද නැංවේ. එහි අර්ථය වන්නේ වීඩියෝ වැනි මාධ්ය දෙස අප මුළුමනින්ම නව දෘෂ්ටි කෝණයකින් බැලිය යුතු බවයි. කවුරුහරි ප්රසිද්ධ පුද්ගලයකුගේ හෝ දේශපාලනඥයෙකුගේ වීඩියෝ පටයක් සමාජ මාධ්යවල සංසරණය කරන්නේ නම් හෝ එහි මතභේදාත්මක යමක් ඇත්නම්, ඔබ මුලින්ම ඇසිය යුත්තේ එම වීඩියෝව පවා සත්යද යන්නයි.
එවැනි ඩීප්ෆේක් වීඩියෝවක් හඳුනා ගන්නේ කෙසේද? එය බොහෝ දුරට “තාක්ෂණය” සමඟ බැඳී ඇති අභියෝගයකි. වඩාත්ම සුලභ ක්රමය වන්නේ ඩීප්ෆේක් වීඩියෝවක් නිර්මාණය කිරීම සඳහා භාවිතා කරන සමාන ඇල්ගොරිතම් (algorithm) භාවිතා කර හඳුනා ගැනීමයි. අනෙක් ක්රමය නම් ප්රභවය සත්යාපනය සඳහා තාක්ෂණය (blockchain / බ්ලොක්චේන්) භාවිතා කිරීමයි.
ඒ අනුව, ඩීප්ෆේක්ස් 2020 වසරේ ප්රධාන සයිබර් ආරක්ෂණ තර්ජන / ගැටළු වලින් එකක් ලෙස හඳුනාගෙන ඇත.
මූලාශ්ර: https://en.wikipedia.org/wiki/Deepfake https://www.cnbc.com/2019/10/14/what-is-deepfake-and-how-it-might-be-danrous.html https://www.online-tech-tips.com/computer-tips/what-is-a-deepfake-and-how-are-they-made/