<p>ಅಮೃತೇಶ್ವರಿ ಬಿ.</p>.<p>ಭಾವನೆಗಳನ್ನು ಭಾವಿಸಿಕೊಳ್ಳುವ, ಕಲ್ಪಿಸಿಕೊಳ್ಳುವ, ಮಾತನಾಡುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಪ್ರಕೃತಿ ಮನುಷ್ಯರಿಗಷ್ಟೇ ನೀಡಿದೆ. ಇದು ಮಾನವಕುಲಕ್ಕೆ ಸಿಕ್ಕ ವರದಾನವೇ ಸರಿ. ಅಂತಹುದೊಂದು ಸಂಕೀರ್ಣ ಮಿದುಳು ಮನುಷ್ಯನಿಗಿದ್ದಿದ್ದರಿಂದಲೇ ಜಗತ್ತು ಇಂದು ನಾವೂ ನೀವೂ ನೋಡಿ ಅನುಭವಿಸುತ್ತಿರುವ ಸ್ಥಿತಿಯಲ್ಲಿರುವುದು – ಒಳ್ಳೆಯದ್ದಾದರೂ ಸರಿ, ಕೆಟ್ಟದ್ದಾದರೂ ಸರಿ! ಮನುಷ್ಯನ ಅತಿಬುದ್ದಿವಂತಿಕೆಯ ಸಾಕ್ಷಿಗಳಲ್ಲಿ ಕೃತಕ ಬುದ್ಧಮತ್ತೆಯೂ ಒಂದು. ಶಿಕ್ಷಣ, ಮಾರುಕಟ್ಟೆ, ತಯಾರಿಕಾ ಕಂಪೆನಿಗಳು, ಔಷಧಗಳು – ಹೀಗೆ ಪ್ರತಿಯೊಂದು ಕ್ಷೇತ್ರಗಳಿಗೂ ಪ್ರವೇಶವಿತ್ತಿರುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ವೈದ್ಯಕೀಯ ಕ್ಷೇತ್ರದಲ್ಲಿಯೂ ತನ್ನ ಸಾಮರ್ಥ್ಯವನ್ನು ತೋರಿಸಿಯೇ ಇದೆ. ಆದರೆ ವಿಷಯ ಇದು ಮಾಡಬಹುದಾದ ಕೆಲಸಗಳ ಪಟ್ಟಿಯ ಬಗ್ಗೆ ಅಲ್ಲ, ಇದು ಮಾಡಬಹುದಾದ ದೋಷಗಳ ಬಗ್ಗೆ. ಮನುಷ್ಯನ ಭಾವನೆಗಳಿಂದ ಒಳ್ಳೆಯದೂ ಆಗುತ್ತದೆ, ಕೆಟ್ಟದ್ದೂ ಆಗುತ್ತದೆ. ಆದರೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಿಂದ ಕೆಲಸ ಮಾಡುವ ‘ಚಾಟ್ ಬಾಟು’ಗಳು ಹೀಗೆ ಏನೇನೋ ಭಾವನೆಗಳನ್ನು ಭಾವಿಸಿಕೊಂಡರೆ ಏನಾದೀತು ಎನ್ನುವುದು ಪ್ರಶ್ನೆ! ಹೌದು. ‘ಟ್ರಾನ್ಸ್ಕ್ರಿಪ್ಶನ್ ಟೂಲ್’ ಅಥವಾ ಧ್ವನಿ ಅಥವಾ ಆಡಿಯೋಗಳನ್ನು ಕೇಳಿಸಿಕೊಂಡು ಪಠ್ಯಗಳನ್ನು ತಯಾರಿಸುವ ಸಾಧನಗಳು ಕೂಡ ಹೀಗೆ ಭ್ರಮಿಸಿಕೊಳ್ಳಬಲ್ಲವಂತೆ! ಮನುಷ್ಯನ ಭ್ರಮಿಸಿಕೊಳ್ಳುವ ಗುಣ ಆತ ಸೃಷ್ಟಿಸಿರುವ ಸಾಧನಗಳಿಗೂ ಅಂಟಿಕೊಂಡಿರಬೇಕು.</p>.<p>ಹೀಗೆ ಕೃತಕಬುದ್ಧಿಮತ್ತೆಯ ಸಾಧನಗಳು ಕೂಡ ಕಲ್ಪಿಸಿಕೊಂಡರೆ ಏನೆಲ್ಲಾ ಅದ್ವಾನಗಳಾಗಬಹುದು ಯೋಚಿಸಿ ನೋಡಿ. ವೈದ್ಯಕೀಯ ಮಾಹಿತಿಗಳು ತಪ್ಪಗಿಬಿಡಬಹುದು, ಎಷ್ಟೋ ಸುಳ್ಳು ಕಾನೂನು ಪ್ರಕರಣಗಳು ಹುಟ್ಟಿಕೊಳ್ಳಬಹುದು. ಹೀಗೆ ಆಗಿರುವ ಉದಾಹರಣೆಗಳೂ ಇವೆಯಂತೆ. ಈಗ ‘ಓಪನ್ ಎಐ’ನ ‘ವಿಸ್ಪರ್’ ಎನ್ನುವ ಟ್ರಾನ್ಸ್ಕ್ರಿಪ್ಶನ್ ಸಾಧನ ಕೂಡ ಆಡಿಯೋಗಳ ಸುಮಾರು ಪ್ರತಿಶತ 1.4ರಷ್ಟು ವಾಕ್ಯಗಳನ್ನು ಭ್ರಮಿಸಿಕೊಂಡುಬಿಡುತ್ತದೆಯಂತೆ! ದುರದೃಷ್ಟವಶಾತ್ ಹೀಗೆ ಕಲ್ಪಿಸಿಕೊಂಡ ವಿಷಯಗಳಲ್ಲಿ ಬಹುತೇಕ ಅಪಾಯಕಾರಿ ಹಾಗೂ ಕಾನೂನಾತ್ಮಕವಾಗಿ ಅಪಾರಾಧವೆನಿಸುವಂಥವು ಇರುವುದಂತೆ! ಹೀಗೆಂದು ಕಾರ್ನೆಲ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದ ಕಂಪ್ಯೂಟರ್ ವಿಜ್ಞಾನಿಗಳು ವರದಿ ಮಾಡಿದ್ದಾರೆ.</p>.<p>ನಾವಂತೂ ಯಾಂತ್ರಿಕ ಯುಗದಲ್ಲಿದ್ದೇವೆ. ವೈದ್ಯರು ಕೂಡ ರೋಗಿಗಳೊಡನೆ ಸಂವಹನ ನಡೆಸಲು ಇಂತಹ ಸಾಧನಗಳನ್ನು ಬಳಸುತ್ತಿದ್ದಾರೆ. ರೋಗಿಗಳು ಕಳುಹಿಸಿದ ಆಡಿಯೋ ಸಂದೇಶಗಳನ್ನು ಈ ಸಾಧನಗಳು ‘ಟೆಕ್ಸ್ಟ್ ಮೆಸೇಜ್’ ಆಗಿ ಲಿಪ್ಯಂತರ ಮಾಡುತ್ತವೆ. ಇದು ಒಂದು ವೇಳೆ ಇವನ್ನು ತಪ್ಪಾಗಿ ಲಿಪ್ಯಂತರ ಮಾಡಿದರೆ ಏನಾಗಬಹುದು ಒಮ್ಮೆ ಅಂದಾಜು ಮಾಡಿ ನೋಡಿ! ಈ ವಿಸ್ಪರ್ ಸಾಧನವನ್ನು ಪರೀಕ್ಷೆ ಮಾಡಿದಾಗ ರೋಗಿ ಹೇಳಿಲ್ಲದಿರುವ ವಿಷಯಗಳನ್ನೂ ಭ್ರಮಿಸಿ ಭಾವಿಸಿಕೊಂಡು ಬರೆದಿದೆಯಂತೆ. ಉದಾಹರಣೆಗೆ, ಆತ ಯಾರನ್ನೋ ಹೇಗೆ ಕೊಲೆ ಮಾಡಿದ? ಇಂಥವನ್ನೆಲ್ಲಾ ಬರೆದಿದುಬಿಟ್ಟಿದೆಯಂತೆ, ಕೊಲೆ ಮಾಡಿಲ್ಲದಿದ್ದರೂ! ಜೊತೆಗೆ ಔಷಧಗಳನ್ನೂ ಹೀಗೆ ತನ್ನಷ್ಟಕ್ಕೆ ತಾನೇ ಏನನ್ನೋ ಸೂಚಿಸಿರುವುದೂ ಉಂಟಂತೆ. ‘ಎಐ’ಗಳ ಈ ದೋಷದಿಂದ ಆಗಬಹುದಾದ ಪರಿಣಾಮಗಳು ನಮ್ಮ ಕಲ್ಪನೆಗೂ ಸಿಗದಂತಾಗಿದೆ. ಶರೆನ್ ಬರ್ಗ್ ಅವರ ಅಧ್ಯಯನದ ಪ್ರಕಾರ ಯಾವುದೇ ‘ಸ್ಪೀಚ್- ಟು-ಟೆಕ್ಸ್ಟ್’ ಸಾಧನಗಳು ನಾವು ನೀಡುವ ವಿಷಯಗಳನ್ನು ಯಾವುದೇ ದೋಷವಿಲ್ಲದ ರೀತಿಯಲ್ಲಿ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲಾರವಂತೆ.</p>.<p>ಇಂತಹ ಸಾಧನಗಳೆಲ್ಲವೂ ಮನುಷ್ಯ ಈಗಾಗಲೇ ತರಬೇತಿ ನೀಡಿ ಕೋಟಿಗಟ್ಟಲೆ ಗಟ್ಟಲೆ ಮಾಹಿತಿಗಳನ್ನು ಪಠ್ಯರೂಪದಲ್ಲಿ ತುಂಬಿಸಿ, ಅವುಗಳಿಗೆ ತರಬೇತಿ ನೀಡಿರುವುದರ ಆಧಾರದ ಮೇಲೆ ಕೆಲಸ ಮಾಡುತ್ತವೆ. ಅಂತೆಯೇ ‘ಜನರೇಟಿವ್ ಚಾಟ್ ಬಾಟು’ಗಳು ಇದಕ್ಕಾಗಿ ‘ಲಾರ್ಜ್ ಲ್ಯಾಂಗ್ವೇಜ್’ ಮಾಡೆಲ್ಗಳನ್ನು ಅವಲಂಭಿಸಿವೆ. ಯಾವುದಾದರೂ ಸಂದೇಶವನ್ನು ನೀಡಿದಾಗ ಧ್ವನಿ ಹಾಗೂ ಅಲ್ಲಿರುವ ಪಠ್ಯಗಳೆರಡನ್ನೂ ಹೊಂದಿಸಿ ನಮಗೆ ಹೊಸ ಸಂದೇಶವನ್ನು ನೀಡುತ್ತವೆ. ಇವು ದೊಡ್ಡ ಮಟ್ಟದ ಮಾಡೆಲ್ ಆಗಿರುವುದರಿಂದ ಇವು ನೀಡುವ ಫಲಿತಾಂಶಗಳು ನಿಖರವಾಗಿರುತ್ತವೆ. ಇತರೆ ಸಾಧನಗಳಲ್ಲಿ ಸಣ್ಣ ಪ್ರಮಾಣದ ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾದರಿಗಳನ್ನು ಬಳಸುವುದರಿಂದ ಅವು ದೋಷಪೂರಿತ ಮಾಹಿತಿಗಳನ್ನು ಹುಟ್ಟುಹಾಕುವ ಸಾಧ್ಯತೆ ಹೆಚ್ಚು. ವಿಸ್ಪರ್ ಕೂಡ ಅಂತಹ ಸಾಧನಗಳಲ್ಲಿ ಒಂದು.</p>.<p>ಇದನ್ನು ಪರೀಕ್ಷಿಸಲು ಕೊನೆಕ್ ಮತ್ತು ಸಂಗಡಿಗರು ಈ ಸಾಧನಕ್ಕೆ ಇಪ್ಪತ್ತು ಗಂಟೆಯ ಆಡಿಯೋವನ್ನು ಪಠ್ಯವನ್ನಾಗಿಸಲು ನೀಡಿದ್ದರಂತೆ. ಅದರಲ್ಲಿ ಚೆನ್ನಾಗಿ ಮಾತನಾಡುವವರು ಹಾಗೂ ಮಾತನಾಡಲು ಸಮಸ್ಯೆಯಿರುವಂತವರ ಆಡಿಯೋಗಳೂ ಇದ್ದುವಂತೆ. ಎರಡೂ ರೀತಿಯ ಸಂಭಾಷಣೆಗಳನ್ನು ಈ ವಿಸ್ಪರ್ ಒಂದಿಷ್ಟು ಕಥೆಗಳನ್ನು ಹೆಣೆದು ತಪ್ಪಾಗಿ ಲಿಪ್ಯಂತರ ಮಾಡಿತ್ತಂತೆ. ಆದರೆ ಭಾಷೆ ಸ್ಪಷ್ಟವಾಗಿಲ್ಲದ ಆಡಿಯೋಗಳನ್ನು ಲಿಪ್ಯಂತರ ಮಾಡುವಾಗ ಆಗಿರುವ ದೋಷ ಹೆಚ್ಚಿನದಾಗಿತ್ತಂತೆ. ಅದರಲ್ಲೂ ಸುಮಾರು ಶೇ. 40ರಷ್ಟು ಅಪಾಯಕಾರಿಯಾಗಿದ್ದುವಂತೆ. ಅರ್ಥಾತ್ ಹಿಂಸೆ, ಲೈಂಗಿಕ ವಕ್ರೋಕ್ತಿಗಳು, ಕೊಲೆ ಪ್ರಕರಣಗಳಂತಹ ಸುಳ್ಳು ಮಾಹಿತಿಗಳನ್ನು ನೀಡಿಬಿಟ್ಟಿತ್ತಂತೆ!</p>.<p>ಹೀಗಾಗಿ ಸಂಶೋಧಕರು, ಮಾತನಾಡುವಾಗ ಹೆಚ್ಚಿನ ವಿರಾಮ ಅಥವಾ ಸಮಯದ ಅಂತರವನ್ನು ನೀಡಿದಾಗ ಈ ರೀತಿ ಭ್ರಮಿಸಿಕೊಳ್ಳುವ ಸಾಧ್ಯತೆ ಹೆಚ್ಚು ಮತ್ತು ‘ಮೌನ‘, ‘ಹ್ಮ್’, ‘ಅಹ್’ ಇಂತಹ ಶಬ್ದಗಳನ್ನು ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್ಗಳು ನಿಜವಾದ ಶಬ್ದಗಳೆಂದು ಗುರುತಿಸಿ ಕಾಲ್ಪನಿಕ ಕಥೆಗಳನ್ನು ಹೆಣೆದುಬಿಡುತ್ತವೆ ಎನ್ನುತ್ತಾರೆ. ಜೊತೆಗೆ ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್ಗಳ ಉತ್ಪಾದಕ ಸ್ವಭಾವದಿಂದಲೂ ಈ ರೀತಿಯ ತಪ್ಪುಗಳಾಗಬಹುದು, ಹೊಸ ಮತ್ತು ಅಸತ್ಯ ಕಥೆಗಳು ಸೇರಿಕೊಳ್ಳಬಹುದು ಎನ್ನುತ್ತಾರೆ. ಓಪನ್ ‘ಎಐ’ನ ಅತಿದೊಡ್ಡ ಮಿತಿಯೇ ಕಟ್ಟುಕಥೆಗಳನ್ನು ಹೆಣೆಯುವುದು ಎಂದು ಈಗಾಗಲೇ ಇವರಿಗೆ ತಿಳಿದಿದ್ದರಿಂದ ಅವು ಭ್ರಮಿಸಬಲ್ಲವು ಎಂಬುದರ ಬಗ್ಗೆ ಆಶ್ಚರ್ಯವಿಲ್ಲದಿದ್ದರೂ, ಅಪಾಯಕಾರಿ ವಿಷಯಗಳನ್ನು ಭ್ರಮಿಸುತ್ತಿರುವುದು ತಲೆನೋವಾಗಿಬಿಟ್ಟಿದೆ. ಮುಂದಿನ ಸಂಶೋಧನೆಗಳಲ್ಲಿ ಅಪಾಯಕಾರಿ ವಿಷಯಗಳನ್ನು ಭ್ರಮಿಸುವುದನ್ನು ಕಡಿಮೆ ಮಾಡುವುದರತ್ತ ಕೆಲಸ ಮಾಡಬೇಕಿದೆ ಎನ್ನುತ್ತಾರೆ, ವಿಜ್ಞಾನಿಗಳು. ಸಾಮಾನ್ಯವಾಗಿ ಮನುಷ್ಯರು ಕೆಲಸ ಮಾಡುವಾಗ ದೋಷಗಳಾಗುತ್ತವೆ, ಯಂತ್ರಗಳು ಮಾಡುವಾಗ ದೋಷಗಳು ಕಡಿಮೆ ಎನ್ನುವುದು ನಂಬಿಕೆಯಾಗಿತ್ತು. ಇತರೆ ಸಾಧನಗಳಲ್ಲಿ ಅದು ಸತ್ಯವೂ ಹೌದು. ಆದರೆ ವೈದ್ಯಕೀಯ ಕ್ಷೇತ್ರಗಳಲ್ಲಿ ಮನುಷ್ಯರನ್ನು ಯಂತ್ರಸಾಧನಗಳಿಂದ ಬದಲಾಯಿಸುವುದು ಸೂಕ್ತವಲ್ಲ. ಒಂದು ಕೆಲಸವನ್ನು ಸುಲಭಗೊಳಿಸಿಕೊಳ್ಳಲು ಹೋಗಿ ಮತ್ತಾವುದೋ ದೊಡ್ಡ ಅಪಾಯವನ್ನು ಆಹ್ವಾನಿಸುವುದು ತರವಲ್ಲ ಎನ್ನಿಸುತ್ತದೆ.</p>.<p>ನೈಜ ಪ್ರಕರಣಗಳನ್ನು ಬೆನ್ನತ್ತಿ ಪರಿಹಾರ ನೀಡುವುದಕ್ಕೇ ಸಾಕಷ್ಟು ಸಮಯ ಬೇಕಿರುವಾಗ ಈ ರೀತಿಯ ಸುಳ್ಳು ಮಾಹಿತಿಗಳ ಬೆನ್ಹತ್ತುವುದಾದರೂ ಹೇಗೆ? ಪರಿಹಾರ ನೀಡುವುದಾದರೂ ಹೇಗೆ? ತಂತ್ರಜ್ಞಾನಗಳ ಬಳಕೆಗೂ ಮುನ್ನ ಅವುಗಳ ಸಾಧಕ–ಬಾಧಕಗಳ ಬಗ್ಗೆ ಎಚ್ಚರದಿಂದಿ ಇರಬೇಕಾದುದು ಅತ್ಯವಶ್ಯ.</p>.<div><p><strong>ಪ್ರಜಾವಾಣಿ ಆ್ಯಪ್ ಇಲ್ಲಿದೆ: <a href="https://play.google.com/store/apps/details?id=com.tpml.pv">ಆಂಡ್ರಾಯ್ಡ್ </a>| <a href="https://apps.apple.com/in/app/prajavani-kannada-news-app/id1535764933">ಐಒಎಸ್</a> | <a href="https://whatsapp.com/channel/0029Va94OfB1dAw2Z4q5mK40">ವಾಟ್ಸ್ಆ್ಯಪ್</a>, <a href="https://www.twitter.com/prajavani">ಎಕ್ಸ್</a>, <a href="https://www.fb.com/prajavani.net">ಫೇಸ್ಬುಕ್</a> ಮತ್ತು <a href="https://www.instagram.com/prajavani">ಇನ್ಸ್ಟಾಗ್ರಾಂ</a>ನಲ್ಲಿ ಪ್ರಜಾವಾಣಿ ಫಾಲೋ ಮಾಡಿ.</strong></p></div>
<p>ಅಮೃತೇಶ್ವರಿ ಬಿ.</p>.<p>ಭಾವನೆಗಳನ್ನು ಭಾವಿಸಿಕೊಳ್ಳುವ, ಕಲ್ಪಿಸಿಕೊಳ್ಳುವ, ಮಾತನಾಡುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಪ್ರಕೃತಿ ಮನುಷ್ಯರಿಗಷ್ಟೇ ನೀಡಿದೆ. ಇದು ಮಾನವಕುಲಕ್ಕೆ ಸಿಕ್ಕ ವರದಾನವೇ ಸರಿ. ಅಂತಹುದೊಂದು ಸಂಕೀರ್ಣ ಮಿದುಳು ಮನುಷ್ಯನಿಗಿದ್ದಿದ್ದರಿಂದಲೇ ಜಗತ್ತು ಇಂದು ನಾವೂ ನೀವೂ ನೋಡಿ ಅನುಭವಿಸುತ್ತಿರುವ ಸ್ಥಿತಿಯಲ್ಲಿರುವುದು – ಒಳ್ಳೆಯದ್ದಾದರೂ ಸರಿ, ಕೆಟ್ಟದ್ದಾದರೂ ಸರಿ! ಮನುಷ್ಯನ ಅತಿಬುದ್ದಿವಂತಿಕೆಯ ಸಾಕ್ಷಿಗಳಲ್ಲಿ ಕೃತಕ ಬುದ್ಧಮತ್ತೆಯೂ ಒಂದು. ಶಿಕ್ಷಣ, ಮಾರುಕಟ್ಟೆ, ತಯಾರಿಕಾ ಕಂಪೆನಿಗಳು, ಔಷಧಗಳು – ಹೀಗೆ ಪ್ರತಿಯೊಂದು ಕ್ಷೇತ್ರಗಳಿಗೂ ಪ್ರವೇಶವಿತ್ತಿರುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ವೈದ್ಯಕೀಯ ಕ್ಷೇತ್ರದಲ್ಲಿಯೂ ತನ್ನ ಸಾಮರ್ಥ್ಯವನ್ನು ತೋರಿಸಿಯೇ ಇದೆ. ಆದರೆ ವಿಷಯ ಇದು ಮಾಡಬಹುದಾದ ಕೆಲಸಗಳ ಪಟ್ಟಿಯ ಬಗ್ಗೆ ಅಲ್ಲ, ಇದು ಮಾಡಬಹುದಾದ ದೋಷಗಳ ಬಗ್ಗೆ. ಮನುಷ್ಯನ ಭಾವನೆಗಳಿಂದ ಒಳ್ಳೆಯದೂ ಆಗುತ್ತದೆ, ಕೆಟ್ಟದ್ದೂ ಆಗುತ್ತದೆ. ಆದರೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಿಂದ ಕೆಲಸ ಮಾಡುವ ‘ಚಾಟ್ ಬಾಟು’ಗಳು ಹೀಗೆ ಏನೇನೋ ಭಾವನೆಗಳನ್ನು ಭಾವಿಸಿಕೊಂಡರೆ ಏನಾದೀತು ಎನ್ನುವುದು ಪ್ರಶ್ನೆ! ಹೌದು. ‘ಟ್ರಾನ್ಸ್ಕ್ರಿಪ್ಶನ್ ಟೂಲ್’ ಅಥವಾ ಧ್ವನಿ ಅಥವಾ ಆಡಿಯೋಗಳನ್ನು ಕೇಳಿಸಿಕೊಂಡು ಪಠ್ಯಗಳನ್ನು ತಯಾರಿಸುವ ಸಾಧನಗಳು ಕೂಡ ಹೀಗೆ ಭ್ರಮಿಸಿಕೊಳ್ಳಬಲ್ಲವಂತೆ! ಮನುಷ್ಯನ ಭ್ರಮಿಸಿಕೊಳ್ಳುವ ಗುಣ ಆತ ಸೃಷ್ಟಿಸಿರುವ ಸಾಧನಗಳಿಗೂ ಅಂಟಿಕೊಂಡಿರಬೇಕು.</p>.<p>ಹೀಗೆ ಕೃತಕಬುದ್ಧಿಮತ್ತೆಯ ಸಾಧನಗಳು ಕೂಡ ಕಲ್ಪಿಸಿಕೊಂಡರೆ ಏನೆಲ್ಲಾ ಅದ್ವಾನಗಳಾಗಬಹುದು ಯೋಚಿಸಿ ನೋಡಿ. ವೈದ್ಯಕೀಯ ಮಾಹಿತಿಗಳು ತಪ್ಪಗಿಬಿಡಬಹುದು, ಎಷ್ಟೋ ಸುಳ್ಳು ಕಾನೂನು ಪ್ರಕರಣಗಳು ಹುಟ್ಟಿಕೊಳ್ಳಬಹುದು. ಹೀಗೆ ಆಗಿರುವ ಉದಾಹರಣೆಗಳೂ ಇವೆಯಂತೆ. ಈಗ ‘ಓಪನ್ ಎಐ’ನ ‘ವಿಸ್ಪರ್’ ಎನ್ನುವ ಟ್ರಾನ್ಸ್ಕ್ರಿಪ್ಶನ್ ಸಾಧನ ಕೂಡ ಆಡಿಯೋಗಳ ಸುಮಾರು ಪ್ರತಿಶತ 1.4ರಷ್ಟು ವಾಕ್ಯಗಳನ್ನು ಭ್ರಮಿಸಿಕೊಂಡುಬಿಡುತ್ತದೆಯಂತೆ! ದುರದೃಷ್ಟವಶಾತ್ ಹೀಗೆ ಕಲ್ಪಿಸಿಕೊಂಡ ವಿಷಯಗಳಲ್ಲಿ ಬಹುತೇಕ ಅಪಾಯಕಾರಿ ಹಾಗೂ ಕಾನೂನಾತ್ಮಕವಾಗಿ ಅಪಾರಾಧವೆನಿಸುವಂಥವು ಇರುವುದಂತೆ! ಹೀಗೆಂದು ಕಾರ್ನೆಲ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದ ಕಂಪ್ಯೂಟರ್ ವಿಜ್ಞಾನಿಗಳು ವರದಿ ಮಾಡಿದ್ದಾರೆ.</p>.<p>ನಾವಂತೂ ಯಾಂತ್ರಿಕ ಯುಗದಲ್ಲಿದ್ದೇವೆ. ವೈದ್ಯರು ಕೂಡ ರೋಗಿಗಳೊಡನೆ ಸಂವಹನ ನಡೆಸಲು ಇಂತಹ ಸಾಧನಗಳನ್ನು ಬಳಸುತ್ತಿದ್ದಾರೆ. ರೋಗಿಗಳು ಕಳುಹಿಸಿದ ಆಡಿಯೋ ಸಂದೇಶಗಳನ್ನು ಈ ಸಾಧನಗಳು ‘ಟೆಕ್ಸ್ಟ್ ಮೆಸೇಜ್’ ಆಗಿ ಲಿಪ್ಯಂತರ ಮಾಡುತ್ತವೆ. ಇದು ಒಂದು ವೇಳೆ ಇವನ್ನು ತಪ್ಪಾಗಿ ಲಿಪ್ಯಂತರ ಮಾಡಿದರೆ ಏನಾಗಬಹುದು ಒಮ್ಮೆ ಅಂದಾಜು ಮಾಡಿ ನೋಡಿ! ಈ ವಿಸ್ಪರ್ ಸಾಧನವನ್ನು ಪರೀಕ್ಷೆ ಮಾಡಿದಾಗ ರೋಗಿ ಹೇಳಿಲ್ಲದಿರುವ ವಿಷಯಗಳನ್ನೂ ಭ್ರಮಿಸಿ ಭಾವಿಸಿಕೊಂಡು ಬರೆದಿದೆಯಂತೆ. ಉದಾಹರಣೆಗೆ, ಆತ ಯಾರನ್ನೋ ಹೇಗೆ ಕೊಲೆ ಮಾಡಿದ? ಇಂಥವನ್ನೆಲ್ಲಾ ಬರೆದಿದುಬಿಟ್ಟಿದೆಯಂತೆ, ಕೊಲೆ ಮಾಡಿಲ್ಲದಿದ್ದರೂ! ಜೊತೆಗೆ ಔಷಧಗಳನ್ನೂ ಹೀಗೆ ತನ್ನಷ್ಟಕ್ಕೆ ತಾನೇ ಏನನ್ನೋ ಸೂಚಿಸಿರುವುದೂ ಉಂಟಂತೆ. ‘ಎಐ’ಗಳ ಈ ದೋಷದಿಂದ ಆಗಬಹುದಾದ ಪರಿಣಾಮಗಳು ನಮ್ಮ ಕಲ್ಪನೆಗೂ ಸಿಗದಂತಾಗಿದೆ. ಶರೆನ್ ಬರ್ಗ್ ಅವರ ಅಧ್ಯಯನದ ಪ್ರಕಾರ ಯಾವುದೇ ‘ಸ್ಪೀಚ್- ಟು-ಟೆಕ್ಸ್ಟ್’ ಸಾಧನಗಳು ನಾವು ನೀಡುವ ವಿಷಯಗಳನ್ನು ಯಾವುದೇ ದೋಷವಿಲ್ಲದ ರೀತಿಯಲ್ಲಿ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲಾರವಂತೆ.</p>.<p>ಇಂತಹ ಸಾಧನಗಳೆಲ್ಲವೂ ಮನುಷ್ಯ ಈಗಾಗಲೇ ತರಬೇತಿ ನೀಡಿ ಕೋಟಿಗಟ್ಟಲೆ ಗಟ್ಟಲೆ ಮಾಹಿತಿಗಳನ್ನು ಪಠ್ಯರೂಪದಲ್ಲಿ ತುಂಬಿಸಿ, ಅವುಗಳಿಗೆ ತರಬೇತಿ ನೀಡಿರುವುದರ ಆಧಾರದ ಮೇಲೆ ಕೆಲಸ ಮಾಡುತ್ತವೆ. ಅಂತೆಯೇ ‘ಜನರೇಟಿವ್ ಚಾಟ್ ಬಾಟು’ಗಳು ಇದಕ್ಕಾಗಿ ‘ಲಾರ್ಜ್ ಲ್ಯಾಂಗ್ವೇಜ್’ ಮಾಡೆಲ್ಗಳನ್ನು ಅವಲಂಭಿಸಿವೆ. ಯಾವುದಾದರೂ ಸಂದೇಶವನ್ನು ನೀಡಿದಾಗ ಧ್ವನಿ ಹಾಗೂ ಅಲ್ಲಿರುವ ಪಠ್ಯಗಳೆರಡನ್ನೂ ಹೊಂದಿಸಿ ನಮಗೆ ಹೊಸ ಸಂದೇಶವನ್ನು ನೀಡುತ್ತವೆ. ಇವು ದೊಡ್ಡ ಮಟ್ಟದ ಮಾಡೆಲ್ ಆಗಿರುವುದರಿಂದ ಇವು ನೀಡುವ ಫಲಿತಾಂಶಗಳು ನಿಖರವಾಗಿರುತ್ತವೆ. ಇತರೆ ಸಾಧನಗಳಲ್ಲಿ ಸಣ್ಣ ಪ್ರಮಾಣದ ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾದರಿಗಳನ್ನು ಬಳಸುವುದರಿಂದ ಅವು ದೋಷಪೂರಿತ ಮಾಹಿತಿಗಳನ್ನು ಹುಟ್ಟುಹಾಕುವ ಸಾಧ್ಯತೆ ಹೆಚ್ಚು. ವಿಸ್ಪರ್ ಕೂಡ ಅಂತಹ ಸಾಧನಗಳಲ್ಲಿ ಒಂದು.</p>.<p>ಇದನ್ನು ಪರೀಕ್ಷಿಸಲು ಕೊನೆಕ್ ಮತ್ತು ಸಂಗಡಿಗರು ಈ ಸಾಧನಕ್ಕೆ ಇಪ್ಪತ್ತು ಗಂಟೆಯ ಆಡಿಯೋವನ್ನು ಪಠ್ಯವನ್ನಾಗಿಸಲು ನೀಡಿದ್ದರಂತೆ. ಅದರಲ್ಲಿ ಚೆನ್ನಾಗಿ ಮಾತನಾಡುವವರು ಹಾಗೂ ಮಾತನಾಡಲು ಸಮಸ್ಯೆಯಿರುವಂತವರ ಆಡಿಯೋಗಳೂ ಇದ್ದುವಂತೆ. ಎರಡೂ ರೀತಿಯ ಸಂಭಾಷಣೆಗಳನ್ನು ಈ ವಿಸ್ಪರ್ ಒಂದಿಷ್ಟು ಕಥೆಗಳನ್ನು ಹೆಣೆದು ತಪ್ಪಾಗಿ ಲಿಪ್ಯಂತರ ಮಾಡಿತ್ತಂತೆ. ಆದರೆ ಭಾಷೆ ಸ್ಪಷ್ಟವಾಗಿಲ್ಲದ ಆಡಿಯೋಗಳನ್ನು ಲಿಪ್ಯಂತರ ಮಾಡುವಾಗ ಆಗಿರುವ ದೋಷ ಹೆಚ್ಚಿನದಾಗಿತ್ತಂತೆ. ಅದರಲ್ಲೂ ಸುಮಾರು ಶೇ. 40ರಷ್ಟು ಅಪಾಯಕಾರಿಯಾಗಿದ್ದುವಂತೆ. ಅರ್ಥಾತ್ ಹಿಂಸೆ, ಲೈಂಗಿಕ ವಕ್ರೋಕ್ತಿಗಳು, ಕೊಲೆ ಪ್ರಕರಣಗಳಂತಹ ಸುಳ್ಳು ಮಾಹಿತಿಗಳನ್ನು ನೀಡಿಬಿಟ್ಟಿತ್ತಂತೆ!</p>.<p>ಹೀಗಾಗಿ ಸಂಶೋಧಕರು, ಮಾತನಾಡುವಾಗ ಹೆಚ್ಚಿನ ವಿರಾಮ ಅಥವಾ ಸಮಯದ ಅಂತರವನ್ನು ನೀಡಿದಾಗ ಈ ರೀತಿ ಭ್ರಮಿಸಿಕೊಳ್ಳುವ ಸಾಧ್ಯತೆ ಹೆಚ್ಚು ಮತ್ತು ‘ಮೌನ‘, ‘ಹ್ಮ್’, ‘ಅಹ್’ ಇಂತಹ ಶಬ್ದಗಳನ್ನು ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್ಗಳು ನಿಜವಾದ ಶಬ್ದಗಳೆಂದು ಗುರುತಿಸಿ ಕಾಲ್ಪನಿಕ ಕಥೆಗಳನ್ನು ಹೆಣೆದುಬಿಡುತ್ತವೆ ಎನ್ನುತ್ತಾರೆ. ಜೊತೆಗೆ ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್ಗಳ ಉತ್ಪಾದಕ ಸ್ವಭಾವದಿಂದಲೂ ಈ ರೀತಿಯ ತಪ್ಪುಗಳಾಗಬಹುದು, ಹೊಸ ಮತ್ತು ಅಸತ್ಯ ಕಥೆಗಳು ಸೇರಿಕೊಳ್ಳಬಹುದು ಎನ್ನುತ್ತಾರೆ. ಓಪನ್ ‘ಎಐ’ನ ಅತಿದೊಡ್ಡ ಮಿತಿಯೇ ಕಟ್ಟುಕಥೆಗಳನ್ನು ಹೆಣೆಯುವುದು ಎಂದು ಈಗಾಗಲೇ ಇವರಿಗೆ ತಿಳಿದಿದ್ದರಿಂದ ಅವು ಭ್ರಮಿಸಬಲ್ಲವು ಎಂಬುದರ ಬಗ್ಗೆ ಆಶ್ಚರ್ಯವಿಲ್ಲದಿದ್ದರೂ, ಅಪಾಯಕಾರಿ ವಿಷಯಗಳನ್ನು ಭ್ರಮಿಸುತ್ತಿರುವುದು ತಲೆನೋವಾಗಿಬಿಟ್ಟಿದೆ. ಮುಂದಿನ ಸಂಶೋಧನೆಗಳಲ್ಲಿ ಅಪಾಯಕಾರಿ ವಿಷಯಗಳನ್ನು ಭ್ರಮಿಸುವುದನ್ನು ಕಡಿಮೆ ಮಾಡುವುದರತ್ತ ಕೆಲಸ ಮಾಡಬೇಕಿದೆ ಎನ್ನುತ್ತಾರೆ, ವಿಜ್ಞಾನಿಗಳು. ಸಾಮಾನ್ಯವಾಗಿ ಮನುಷ್ಯರು ಕೆಲಸ ಮಾಡುವಾಗ ದೋಷಗಳಾಗುತ್ತವೆ, ಯಂತ್ರಗಳು ಮಾಡುವಾಗ ದೋಷಗಳು ಕಡಿಮೆ ಎನ್ನುವುದು ನಂಬಿಕೆಯಾಗಿತ್ತು. ಇತರೆ ಸಾಧನಗಳಲ್ಲಿ ಅದು ಸತ್ಯವೂ ಹೌದು. ಆದರೆ ವೈದ್ಯಕೀಯ ಕ್ಷೇತ್ರಗಳಲ್ಲಿ ಮನುಷ್ಯರನ್ನು ಯಂತ್ರಸಾಧನಗಳಿಂದ ಬದಲಾಯಿಸುವುದು ಸೂಕ್ತವಲ್ಲ. ಒಂದು ಕೆಲಸವನ್ನು ಸುಲಭಗೊಳಿಸಿಕೊಳ್ಳಲು ಹೋಗಿ ಮತ್ತಾವುದೋ ದೊಡ್ಡ ಅಪಾಯವನ್ನು ಆಹ್ವಾನಿಸುವುದು ತರವಲ್ಲ ಎನ್ನಿಸುತ್ತದೆ.</p>.<p>ನೈಜ ಪ್ರಕರಣಗಳನ್ನು ಬೆನ್ನತ್ತಿ ಪರಿಹಾರ ನೀಡುವುದಕ್ಕೇ ಸಾಕಷ್ಟು ಸಮಯ ಬೇಕಿರುವಾಗ ಈ ರೀತಿಯ ಸುಳ್ಳು ಮಾಹಿತಿಗಳ ಬೆನ್ಹತ್ತುವುದಾದರೂ ಹೇಗೆ? ಪರಿಹಾರ ನೀಡುವುದಾದರೂ ಹೇಗೆ? ತಂತ್ರಜ್ಞಾನಗಳ ಬಳಕೆಗೂ ಮುನ್ನ ಅವುಗಳ ಸಾಧಕ–ಬಾಧಕಗಳ ಬಗ್ಗೆ ಎಚ್ಚರದಿಂದಿ ಇರಬೇಕಾದುದು ಅತ್ಯವಶ್ಯ.</p>.<div><p><strong>ಪ್ರಜಾವಾಣಿ ಆ್ಯಪ್ ಇಲ್ಲಿದೆ: <a href="https://play.google.com/store/apps/details?id=com.tpml.pv">ಆಂಡ್ರಾಯ್ಡ್ </a>| <a href="https://apps.apple.com/in/app/prajavani-kannada-news-app/id1535764933">ಐಒಎಸ್</a> | <a href="https://whatsapp.com/channel/0029Va94OfB1dAw2Z4q5mK40">ವಾಟ್ಸ್ಆ್ಯಪ್</a>, <a href="https://www.twitter.com/prajavani">ಎಕ್ಸ್</a>, <a href="https://www.fb.com/prajavani.net">ಫೇಸ್ಬುಕ್</a> ಮತ್ತು <a href="https://www.instagram.com/prajavani">ಇನ್ಸ್ಟಾಗ್ರಾಂ</a>ನಲ್ಲಿ ಪ್ರಜಾವಾಣಿ ಫಾಲೋ ಮಾಡಿ.</strong></p></div>