ADVERTISEMENT

ಸಂಪಾದಕೀಯ: ಡೀಪ್‌ಫೇಕ್‌– ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸೃಷ್ಟಿಸಿರುವ ಹೊಸ ಸವಾಲು

ಸಂಪಾದಕೀಯ

ಸಂಪಾದಕೀಯ
Published 13 ನವೆಂಬರ್ 2023, 19:16 IST
Last Updated 13 ನವೆಂಬರ್ 2023, 19:16 IST
<div class="paragraphs"><p>ಸಂಪಾದಕೀಯ</p></div>

ಸಂಪಾದಕೀಯ

   

ಕೆಲವು ಖ್ಯಾತನಾಮರ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊಗಳು ಈಚೆಗೆ ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳ ಮೂಲಕ ವ್ಯಾಪಕವಾಗಿ ಹರಿದಾಡಿದ ಸಂಗತಿಯು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ (ಎ.ಐ) ದುರ್ಬಳಕೆಗೆ ಸಂಬಂಧಿಸಿದ ಕಳವಳ ಮತ್ತಷ್ಟು ಹೆಚ್ಚುವಂತೆ ಮಾಡಿದೆ. ದಕ್ಷಿಣ ಭಾರತದ ಜನಪ್ರಿಯ ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊವೊಂದನ್ನು ಕಳೆದ ವಾರ ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳ ಮೂಲಕ ಹರಿಯಬಿಡಲಾಯಿತು. ಇದಾದ ನಂತರದಲ್ಲಿ ಬಾಲಿವುಡ್ ನಟಿ ಕತ್ರಿನಾ ಕೈಫ್ ಅವರ ಡೀಪ್‌ಫೇಕ್ ಚಿತ್ರವೊಂದನ್ನು ಹಂಚಿ
ಕೊಳ್ಳಲಾಯಿತು. ಎ.ಐ. ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ ಸೃಷ್ಟಿಸಿದ ಹಾಗೂ ತಿರುಚಿದ ಇತರ ಕೆಲವು ಚಿತ್ರಗಳು ಕೂಡ ಇಂಟರ್ನೆಟ್‌ ಮೂಲಕ ಹರಿದಾಡಿವೆ. ಇಂತಹ ಚಿತ್ರಗಳು, ವಿಡಿಯೊಗಳನ್ನು ಕೃತಕವಾಗಿ ಸೃಷ್ಟಿಸ
ಲಾಗುತ್ತದೆ. ಮೇಲ್ನೋಟಕ್ಕೆ ಇವು ನಿಜವಾದವು ಎಂದೇ ಅನಿಸುತ್ತದೆ. ಕಳೆದ ಕೆಲವು ವರ್ಷಗಳಲ್ಲಿ ಬಹಳ ಮುಂದುವರಿದಿರುವ ಎ.ಐ. ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ಈ ಬಗೆಯ ಚಿತ್ರಗಳು, ವಿಡಿಯೊಗಳನ್ನು ತಿರುಚುವ ಕೆಲಸ ನಡೆದುಬಂದಿದೆ. ತೀರಾ ಸೂಕ್ಷ್ಮವಾಗಿ ಗಮನಿಸಿದಾಗ, ಇವು ಸತ್ಯವಲ್ಲ ಎಂಬುದು ಗೊತ್ತಾಗುತ್ತದೆ. ತಂತ್ರಜ್ಞಾನವು ಇವುಗಳ ನಕಲಿತನವನ್ನು ಖಂಡಿತ ಗುರುತಿಸಬಲ್ಲದು. ಆದರೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ
ಯನ್ನು ಬಳಸಿ ಸೃಷ್ಟಿಸುವ ಕೆಲವು ಚಿತ್ರ, ವಿಡಿಯೊಗಳನ್ನು ಗುರುತಿಸುವಲ್ಲಿ ಅತ್ಯುತ್ತಮ ತಂತ್ರಜ್ಞಾನ ಕೂಡ ಹಲವು ಸಂದರ್ಭಗಳಲ್ಲಿ ಸೋಲುತ್ತದೆ. 

ಡೀಪ್‌ಫೇಕ್ ಚಿತ್ರ, ವಿಡಿಯೊ ಸೃಷ್ಟಿಯು ಅತ್ಯಂತ ಅಪಾಯಕಾರಿ ಪರಿಣಾಮಗಳನ್ನು ಹೊಂದಿದೆ. ಇದು ವ್ಯಕ್ತಿಯ ಖಾಸಗಿತನವನ್ನು ಹಾಳುಗೆಡವಬಲ್ಲದು, ಸಮಾಜದಲ್ಲಿ ಸುಳ್ಳುಗಳನ್ನು ಹರಡಬಲ್ಲದು. ವ್ಯಕ್ತಿಯ ಹೆಸರು ಹಾಳುಮಾಡುವುದು ಮಾತ್ರವೇ ಅಲ್ಲದೆ, ಇದು ಸಮಾಜದಲ್ಲಿ ಹಾಗೂ ಕುಟುಂಬಗಳ ಮಟ್ಟದಲ್ಲಿ ಸಂಘರ್ಷ ಸೃಷ್ಟಿಯಾಗುವುದಕ್ಕೆ ಕಾರಣ ವಾಗಬಹುದು. ರಾಜಕೀಯದ ಮೇಲೆ ಪ್ರಭಾವ ಬೀರಬಹುದು ಹಾಗೂ ಅಪರಾಧಗಳಿಗೆ ದಾರಿ ಮಾಡಿಕೊಡಬಹುದು. ಚುನಾವಣೆಗಳ ಸಂದರ್ಭದಲ್ಲಿ ಇವನ್ನು ಪ್ರಚಾರಾಂದೋಲನದ ಅಸ್ತ್ರವನ್ನಾಗಿ ಬಳಸಿಕೊಳ್ಳಬಹುದು. ದೇಶಗಳ ಪ್ರಜಾತಾಂತ್ರಿಕ ಪ್ರಕ್ರಿಯೆ ಹಾಳುಮಾಡಲು ಇವುಗಳನ್ನು ಬಳಸಿಕೊಳ್ಳ ಬಹುದು. ಡೀ‍ಪ್‌ಫೇಕ್‌ಗಳನ್ನು ಬಹಳ ಸುಲಭವಾಗಿ ಸೃಷ್ಟಿಸುವ ಹಾಗೂ ಅಷ್ಟೇ ಸುಲಭವಾಗಿ ಹರಡುವ ಸಾಧ್ಯತೆಯು ಇವುಗಳಿಂದ ಉಂಟಾಗುವ ಅಪಾಯವನ್ನು ಇನ್ನಷ್ಟು ಹೆಚ್ಚು ಮಾಡುತ್ತದೆ. ಈಗ ಮಹಿಳೆಯರನ್ನು ಗುರಿಯಾಗಿಸಿಕೊಂಡು ಅಸಭ್ಯ ಚಿತ್ರಗಳು, ವಿಡಿಯೊಗಳನ್ನು ಸೃಷ್ಟಿಸುವ ಕೆಲಸ ಹೆಚ್ಚು ನಡೆಯುತ್ತಿದೆಯಾದರೂ ಮುಂದೆ ಡೀಪ್‌ಫೇಕ್ ಎಲ್ಲ ಕ್ಷೇತ್ರಗಳಿಗೂ ಚಾಚಿಕೊಳ್ಳ
ಬಹುದು. ಡೀಪ್‌ಫೇಕ್‌ ಬಳಕೆಯಲ್ಲಿ ಅಪಾಯಕ್ಕೆ ಈಡಾಗುವ ದೇಶಗಳ ಪಟ್ಟಿಯಲ್ಲಿ ಭಾರತಕ್ಕೆ ಆರನೆಯ ಸ್ಥಾನವಿದೆ. ಡೀಪ್‌ಫೇಕ್‌ ವಸ್ತು–ವಿಷಯಗಳನ್ನು ದೂರು ಸ್ವೀಕರಿಸಿದ 24 ಗಂಟೆಗಳಲ್ಲಿ ತೆಗೆದುಹಾಕಬೇಕು ಎಂದು ಕೇಂದ್ರ ಸರ್ಕಾರವು ಸಾಮಾಜಿಕ ಜಾಲತಾಣ ಕಂಪನಿಗಳಿಗೆ ಸೂಚನೆ ನೀಡಿದೆ. ಇಂತಹ ಚಿತ್ರ, ವಿಡಿಯೊಗಳಿಂದ ತೊಂದರೆಗೆ ಒಳಗಾದವರು ತಕ್ಷಣವೇ ದೂರು ಸಲ್ಲಿಸಬೇಕು ಎಂದು ಕೂಡ ಹೇಳಿದೆ. ಡೀಪ್‌ಫೇಕ್‌ಗಳಿಂದ ಸೃಷ್ಟಿಯಾಗುವ ಸಮಸ್ಯೆಗಳನ್ನು ನಿಭಾಯಿಸಲು ಮಾಹಿತಿ ತಂತ್ರಜ್ಞಾನ ಕಾಯ್ದೆಯಲ್ಲಿ ಅಗತ್ಯ ಸೆಕ್ಷನ್‌ಗಳು ಇವೆ. ಆದರೆ ಲಭ್ಯವಿರುವ ಕಾನೂನು ಕ್ರಮಗಳು ಡೀಪ್‌ಫೇಕ್‌ಗಳಿಂದ ಎದುರಾಗುವ ಸಮಸ್ಯೆಗಳನ್ನು ಎದುರಿಸಲು ಸಾಕಾಗುವುದಿಲ್ಲ ಎಂಬ ಅಭಿಪ್ರಾಯ ಇದೆ.

ADVERTISEMENT

ಬ್ರಿಟನ್ನಿನಲ್ಲಿ ಈಚೆಗೆ ನಡೆದ ಮೊದಲ ಎ.ಐ. ಶೃಂಗದಲ್ಲಿ ಈ ಕಳವಳಗಳನ್ನು ಗುರುತಿಸಲಾಗಿದೆ. ಈ ಶೃಂಗದಲ್ಲಿ ಅಮೆರಿಕ, ಬ್ರಿಟನ್, ಫ್ರಾನ್ಸ್, ಚೀನಾ, ಜಪಾನ್ ಮತ್ತು ಭಾರತ ಸೇರಿದಂತೆ 28 ದೇಶಗಳು ಪಾಲ್ಗೊಂಡಿದ್ದವು. ‘ವಸ್ತು–ವಿಷಯಗಳನ್ನು ತಿರುಚುವ ಹಾಗೂ ವಂಚಿಸುವ ಸಾಮರ್ಥ್ಯದ ವಸ್ತು–ವಿಷಯಗಳನ್ನು ಸೃಷ್ಟಿಸುವ ಶಕ್ತಿಯಿಂದ ಉಂಟಾಗುವ ಅಪಾಯ’ಗಳನ್ನು ಈ ಶೃಂಗದ ಘೋಷಣೆಯಲ್ಲಿ ಉಲ್ಲೇಖಿಸಲಾಗಿದೆ. ಎ.ಐ.ನಿಂದ ಎದುರಾಗುವ ಅಪಾಯಗಳನ್ನು ನಿಗ್ರಹಿಸಲು ಜಾಗತಿಕ ಮಟ್ಟದಲ್ಲಿ ಕೆಲಸ ಆಗಬೇಕು ಎಂದು ಕೂಡ ಹೇಳಿದೆ. ಆದರೆ, ಬೇರೆ ಬೇರೆ ದೇಶಗಳು ಬೇರೆ ಬೇರೆ ಕಾರ್ಯತಂತ್ರದ ಮೊರೆ ಹೋಗಿರುವ ಕಾರಣ, ಅಪಾಯವನ್ನು ನಿಭಾಯಿಸುವುದು ಹೇಗೆ ಎಂಬ ವಿಚಾರದಲ್ಲಿ ಒಮ್ಮತ ಮೂಡಿಲ್ಲ. ಸರ್ಕಾರಗಳು ಮಾತ್ರವಲ್ಲದೆ, ತಂತ್ರಜ್ಞಾನ ಕ್ಷೇತ್ರದ ಬೃಹತ್‌ ಕಂಪನಿಗಳು ಎ.ಐ.
ದುರ್ಬಳಕೆಯನ್ನು ತಡೆಯಲು ಒಂದಿಷ್ಟು ಕ್ರಮಗಳನ್ನು ಕೈಗೊಳ್ಳಬೇಕು.

ಪ್ರಜಾವಾಣಿ ಆ್ಯಪ್ ಇಲ್ಲಿದೆ: ಆಂಡ್ರಾಯ್ಡ್ | ಐಒಎಸ್ | ವಾಟ್ಸ್ಆ್ಯಪ್, ಎಕ್ಸ್, ಫೇಸ್‌ಬುಕ್ ಮತ್ತು ಇನ್‌ಸ್ಟಾಗ್ರಾಂನಲ್ಲಿ ಪ್ರಜಾವಾಣಿ ಫಾಲೋ ಮಾಡಿ.