【希望之聲澳洲生活台2019年11月4日訊】
科技公司可能很難為人工智能的道德使用奠定基礎,但美國國防部似乎正在向前邁進。美國國防創新委員會(Defense Innovation Board)剛剛公布了國防部人工智能倫理準則草案,旨在對新興技術進行控制。其中一些更實際(如高可靠性),或者植根於多年前的政策(每一階段都要求人類承擔責任),但其他一些政策對於公共領域和私人領域都是相對新穎的。
草案要求公平的人工智能,避免算法中的“意想不到的偏見”,如種族主義或性別歧視。該委員會表示,人工智能可能導致人們受到“不公平”對待,即使他們不一定處於生死關頭。委員會呼籲軍方確保其數據來源是中立的,而不僅僅是代碼本身。偏見在針對主要戰鬥人員或盡量減少平民傷亡方面可能是有用的,但在某些情況下並非如此。
這些文件還呼籲使用“可控制”的人工智能,如果它發現自己即將造成不必要的傷害,就會自動停止,並及時停止(或切換到人工操作員)。這不會為全自動武器開綠燈,但它會降低人工智能失控的幾率。此外,草案還呼籲“可追蹤的”人工智能輸出,讓人們看到系統是如何得出結論的。
譯自:Engadget
責任編輯:威廉