ପିଲାମାନଙ୍କ ପାଇଁ ବିପଦ ସାଜିଛି AI ପ୍ଲାଟଫର୍ମ। ଦେଉଛି ଆତ୍ମହତ୍ୟାର ଟିପ୍ସ। AI ର ଲୋକପ୍ରିୟ ପ୍ଲାଟଫର୍ମ ChatGPT ଏବେ ଏମିତି ଏକ ବିବାଦ ଘେରକୁ ଆସିଛି।
ପିଲାମାନଙ୍କ ପାଇଁ ବିପଦ ସାଜିଛି AI ପ୍ଲାଟଫର୍ମ। ଦେଉଛି ଆତ୍ମହତ୍ୟାର ଟିପ୍ସ। AI ର ଲୋକପ୍ରିୟ ପ୍ଲାଟଫର୍ମ ChatGPT ଏବେ ଏମିତି ଏକ ବିବାଦ ଘେରକୁ ଆସିଛି। ସେଣ୍ଟର ଫର୍ କାଉଣ୍ଟରିଂ ଡିଜିଟାଲ୍ ହେଟ୍ ବା CCDH ଦ୍ୱାରା ଏକ ରିସର୍ଚ୍ଚ କରାଯାଇଛି ଆଉ ଏଥିରେ ଆଶ୍ଚର୍ଯ୍ୟଜନକ ଖୁଲାସା କରାଯାଇଛି। ରିସର୍ଚ୍ଚ କହିଛି ଯେ, ChatGPT ୧୩ ବର୍ଷ ବୟସର ପିଲାମାନଙ୍କୁ ଦେଉଛି ଆତ୍ମହତ୍ୟା ଟିପ୍ସ। ଖାଲି ସେତିକି ନୁହେଁ, ଏହା ମଧ୍ୟ ବିପଜ୍ଜନକ ଡାଏଟ୍ ପ୍ଲାନ୍ ଏବଂ ନିଶାଦ୍ରବ୍ୟ ଖାଇବା ନେଇ ଦେଉଛି ପରାମର୍ଶ।
ଏହି ରିପୋର୍ଟ ଏପରି ଏକ ସମୟରେ ଆସିଛି ଯେତେବେଳେ ବିଶ୍ୱର ପ୍ରାୟ ୮୦ କୋଟି ଲୋକ ChatGPT ବ୍ୟବହାର କରୁଛନ୍ତି। ଏହି ରିସର୍ଚ୍ଚ କରିବା ପାଇଁ ଗବେଷକମାନେ ଜଣେ ୧୩ ବର୍ଷୀୟ ଝିଅର ଏକ ନକଲି ପ୍ରୋଫାଇଲ୍ ତିଆରି କରିଥିଲେ ଏବଂ ChatGPTରେ ୩ ଘଣ୍ଟାରୁ ଅଧିକ ସମୟ ଧରି କଥା ହୋଇଥିଲେ। ଏହି ସମୟରେ ଯେଉଁ ତଥ୍ୟ ସାମ୍ନାକୁ ଆସିଥିଲା ତାହା ଖୁବ୍ ସାଂଘାତିକ ଥିଲା।
ଗବେଷକମାନେ ସେତେବେଳେ ଚିନ୍ତାରେ ପଡିଯାଇଥିଲେ ଯେତେବେଳେ ChatGPT ଜଣେ ଟିନ୍ ଏଜର ପାଇଁ ତିନୋଟି ଭିନ୍ନ ଭିନ୍ନ ଆତ୍ମହତ୍ୟା ନୋଟ୍ ଦେଇଥିଲା। ତାହା ହେଉଛି ବାପାମାଆଙ୍କ ପାଇଁ, ଭାଇଭଉଣୀଙ୍କ ପାଇଁ ଏବଂ ବନ୍ଧୁମାନଙ୍କ ପାଇଁ। ଏହି ଟିପ୍ସଗୁଡିକ ଏତେ ଭାବପ୍ରବଣ ଥିଲା ଯେ ଏହାକୁ ପଢ଼ିବା ପରେ ଆଖିରୁ ଲୁହ ଆସିଯାଥିଲା ବୋଲି ଗବେଶକମାନେ କହିଛନ୍ତି।
Also Read
ଖାଲି ସେତିକି ନୁହେଁ ଏହି AI ପ୍ଲାଟ୍ଫର୍ମ ପିଲାମାନଙ୍କୁ ଏହା ମଧ୍ୟ ପରାମର୍ଶ ଦେଉଛି, ଭୋକକୁ କିପରି ଚାପି ରଖାଯିବ। ଏନେଇ ଚାଟଜିପିଟି ସହିତ ଯୋଗାଯୋଗ କରିବାରୁ ଏହା ତୁରନ୍ତ ଭୋକ ମାରିବାଦେବା ଭଳି ମେଡିସିନ୍ର ଏକ ତାଲିକା ଦେଇଥିଲା।ସେହିପରି ଶୀଘ୍ର ନିଶା ହେବା ପାଇଁ ଉପାୟ ବିଷୟରେ ପଚରାଯିବାରୁ, ChatGPT ଏମିତି ଏକ ଲିଷ୍ଟ୍ ଦେଇଥିଲା ଯେଉଁଥିରେ କୋକେନ୍ ଭଳି ବେଆଇନ ଡ୍ରଗ୍ସ ସାମିଲ୍ ଥିଲା।




