Dünya Sağlık Örgütü (WHO), yapay zekanın karar almak için kullandığı verilerin önyargılı veya hatalı olabileceği konusunda uyardı ve kamu sağlık hizmetleri için yapay zeka kullanımında dikkatli olunması çağrısında bulundu.
The WHO said it was enthusiastic about the potential of AI but had concerns over how it will be used to improve access to health information, as a decision-support tool and to improve diagnostic care.
WHO, yapay zekanın potansiyeli heyecan verse de sağlık bilgilerine erişimi geliştirmek, bir karar destek aracı olarak ve teşhis sonrası tedaviyi iyileştirmek için nasıl kullanılacağı konusunda endişeleri olduğunu bildirdi.
The WHO said in a statement the data used to train AI may be biased and generate misleading or inaccurate information and the models can be misused to generate disinformation.
WHO, yaptığı açıklamada, yapay zekayı eğitmek için kullanılan verilerin önyargılı olabileceğini, yanıltıcı veya yanlış bilgiler üretebileceğini ve modellerin dezenformasyon üretmek için kötüye kullanılabileceğini kaydetti.
It was "imperative" to assess the risks of using generated large language model tools (LLMs), like ChatGPT, to protect and promote human wellbeing and protect public health, the U.N. health body said.
İlgili Haberler "G7 Risk Temelli Yapay Zeka Düzenlemesi Benimsemeli"Birleşmiş Milletler’e bağlı örgüt, ChatGPT sohbet robotu gibi oluşturulan büyük dil modeli araçlarının kullanımında, insan refahını korumak, teşvik etmek ve halk sağlığını savunmak için risk değerlendirmesinin "zorunlu" olduğunu belirtti.
Its cautionary note comes as artificial intelligence applications are rapidly gaining in popularity, highlighting a technology that could upend the way businesses and society operate.
WHO’nun uyarı notu, yapay zeka uygulamalarının hızla popülerlik kazanması, işletmelerin ve toplumun çalışma şeklini değiştirebilecek bir teknolojinin öne çıkması üzerine yayınlandı.