Wednesday, March 4, 2026
Google search engine
Homeপ্রযুক্তিগুগল AI–এর উপর অন্ধ ভরসা কি জীবন সংকটে ফেলছে মানুষকে ? ভুল...

গুগল AI–এর উপর অন্ধ ভরসা কি জীবন সংকটে ফেলছে মানুষকে ? ভুল স্বাস্থ্যতথ্যে বাড়ছে উদ্বেগ !

Google AI : ডিজিটাল যুগে তথ্য জানার জন্য প্রথম ভরসার নাম একটাই—গুগল। কিন্তু সাম্প্রতিক একাধিক রিপোর্ট বলছে, সেই ভরসার জায়গাতেই লুকিয়ে রয়েছে মারাত্মক বিপদ। কারণ মানুষ এখন আর শুধু সার্চ রেজাল্ট দেখছে না, সরাসরি বিশ্বাস করে নিচ্ছে গুগলের AI সামারি বা AI Overview–কে। আর সেখানেই শুরু হচ্ছে বিপত্তি।

বিশেষজ্ঞদের দাবি, গুগলের কৃত্রিম বুদ্ধিমত্তা অনেক ক্ষেত্রেই স্বাস্থ্য সংক্রান্ত গুরুতর ভুল তথ্য দিচ্ছে, যা মানুষের জীবনের জন্য ভয়ানক ঝুঁকি তৈরি করতে পারে। বিষয়টি সামনে আসার পরেই বিশ্বজুড়ে নতুন করে শুরু হয়েছে বিতর্ক—AI কি সত্যিই মানুষের স্বাস্থ্যের মতো সংবেদনশীল বিষয়ে সিদ্ধান্ত দেওয়ার যোগ্য?


কী এই গুগল AI সামারি, আর কেন এত জনপ্রিয়?

সাম্প্রতিক সময়ে Google তাদের সার্চ ইঞ্জিনে AI Overview বা AI সামারি চালু করেছে। এর উদ্দেশ্য, ব্যবহারকারী যাতে এক নজরেই প্রশ্নের উত্তর পেয়ে যান। আলাদা করে ওয়েবসাইটে ক্লিক করার প্রয়োজন না পড়ে, AI নিজেই বিভিন্ন সূত্র থেকে তথ্য নিয়ে একটি সংক্ষিপ্ত উত্তর দেখায়।

সমস্যা শুরু হয়েছে এখানেই। বহু ব্যবহারকারী এখন আর নিচের সার্চ রেজাল্টে যাচ্ছেন না। চোখ বুজে বিশ্বাস করছেন AI–এর দেওয়া উত্তরে। বিশেষ করে স্বাস্থ্য সংক্রান্ত বিষয়ে এই প্রবণতা ভয়ানক রূপ নিচ্ছে।


‘দ্য গার্ডিয়ান’-এর রিপোর্টে কী উঠে এসেছে?

এই উদ্বেগের সূত্রপাত হয়েছে ব্রিটেনের প্রথম সারির সংবাদমাধ্যম The Guardian প্রকাশিত একটি বিস্তৃত রিপোর্ট থেকে। চলতি বছরের জানুয়ারিতে প্রকাশিত ওই প্রতিবেদনে একাধিক চাঞ্চল্যকর উদাহরণ তুলে ধরা হয়েছে।

রিপোর্ট অনুযায়ী, গুগল AI বহু ক্ষেত্রে মেডিক্যাল রিপোর্ট বা টেস্টের ফল ভুলভাবে ব্যাখ্যা করছে। যেমন—

  • লিভার ফাংশন টেস্ট (LFT)-এর ক্ষেত্রে
  • গুরুতর সংক্রমণের ইঙ্গিত থাকা সত্ত্বেও
  • AI জানাচ্ছে রিপোর্ট “স্বাভাবিক সীমার মধ্যেই”

ফলে সাধারণ মানুষ মনে করছেন, তাঁদের কোনও সমস্যা নেই। অথচ বাস্তবে রোগটি হতে পারে অত্যন্ত বিপজ্জনক।

পরবর্তীতে সমালোচনা বাড়তেই নীরবে ওই ‘স্বাভাবিক পরিসর’ সংক্রান্ত তথ্য সরিয়ে দেয় গুগল। কিন্তু ততক্ষণে প্রশ্ন উঠে গিয়েছে—এতদিনে কত মানুষ ভুল তথ্যের শিকার হয়েছেন?


ইউটিউব থেকে চিকিৎসার তথ্য! কতটা ভরসাযোগ্য?

রিপোর্টে আরও একটি ভয়ানক দিক উঠে এসেছে। দেখা গিয়েছে, বহু ক্ষেত্রে গুগল AI স্বাস্থ্য সংক্রান্ত প্রশ্নের উত্তরের জন্য প্রামাণ্য মেডিক্যাল ওয়েবসাইট নয়, বরং ইউটিউব ভিডিও থেকে তথ্য সংগ্রহ করছে।

উদাহরণ হিসেবে জার্মানির একটি সমীক্ষার কথা বলা হয়েছে। সেখানে প্রায় ৫০ হাজার স্বাস্থ্য সংক্রান্ত সার্চ বিশ্লেষণ করে দেখা যায়—

  • ৪.৪৩ শতাংশ ক্ষেত্রে তথ্য এসেছে ইউটিউব ভিডিও থেকে
  • অথচ জার্মানির অন্যতম নির্ভরযোগ্য স্বাস্থ্য ওয়েবসাইট NetDoktor.de–এর তথ্য ব্যবহার হয়েছে মাত্র ৩.৫ শতাংশ ক্ষেত্রে
  • সব মিলিয়ে মাত্র ৩৪.৪৫ শতাংশ AI সামারিই এসেছে নির্ভরযোগ্য স্বাস্থ্যসূত্র থেকে

এই পরিসংখ্যানেই স্পষ্ট, বিপদের আশঙ্কা একেবারেই অমূলক নয়।


‘ড. গুগল’ নিয়ে চিকিৎসকদের পুরনো সতর্কবার্তা নতুন করে প্রাসঙ্গিক

চিকিৎসকরা বহুদিন ধরেই বলে আসছেন—শরীর খারাপ হলে গুগলে সার্চ করে নিজের রোগ নির্ণয় করা বিপজ্জনক। কিন্তু AI সামারির যুগে পরিস্থিতি আরও জটিল হয়ে উঠেছে।

আগে অন্তত মানুষ একাধিক ওয়েবসাইট পড়ে সিদ্ধান্ত নিতেন। এখন সেই ‘পরিশ্রম’টুকুও করছেন না। AI যা বলছে, সেটাকেই চূড়ান্ত সত্য ধরে নিচ্ছেন অনেকেই। বিশেষজ্ঞদের মতে, এই প্রবণতা মারাত্মক স্বাস্থ্যঝুঁকি তৈরি করছে।


বিশেষজ্ঞরা কী বলছেন?

স্বাস্থ্য ও প্রযুক্তি বিশেষজ্ঞদের একাংশের মতে—

  • AI এখনো চিকিৎসকের বিকল্প হতে পারে না
  • কৃত্রিম বুদ্ধিমত্তার কাছে মানবদেহের জটিলতা বোঝার ক্ষমতা সীমিত
  • ভুল তথ্যের দায় কে নেবে, সেই প্রশ্নের কোনও স্পষ্ট উত্তর নেই

তাঁদের আশঙ্কা, ভবিষ্যতে যদি AI–এর উপর এই অন্ধ নির্ভরতা বাড়ে, তাহলে ভুল চিকিৎসা সিদ্ধান্ত, দেরিতে রোগ শনাক্তকরণ এবং এমনকি প্রাণহানির ঘটনাও ঘটতে পারে।


তাহলে কী করবেন সাধারণ মানুষ?

✔ স্বাস্থ্য সংক্রান্ত তথ্যের জন্য সবসময় চিকিৎসকের পরামর্শ নিন
✔ AI সামারিকে কখনও চূড়ান্ত সিদ্ধান্ত হিসেবে গ্রহণ করবেন না
✔ প্রামাণ্য মেডিক্যাল ওয়েবসাইট ও সরকারি স্বাস্থ্য সংস্থার তথ্য যাচাই করুন
✔ উপসর্গ গুরুতর হলে গুগল নয়, ডাক্তারের কাছে যান

AI সহায়ক হতে পারে, কিন্তু জীবনরক্ষাকারী সিদ্ধান্তের দায়িত্ব তার হাতে তুলে দেওয়া ভয়ানক হতে পারে—এই বার্তাই দিচ্ছেন বিশেষজ্ঞরা।

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments