Your browser doesn't support javascript.
loading
Mostrar: 20 | 50 | 100
Resultados 1 - 3 de 3
Filtrar
Mais filtros










Intervalo de ano de publicação
1.
Bull World Health Organ ; 98(4): 257-262, 2020 Apr 01.
Artigo em Inglês | MEDLINE | ID: mdl-32284649

RESUMO

Artificial intelligence holds great promise in terms of beneficial, accurate and effective preventive and curative interventions. At the same time, there is also awareness of potential risks and harm that may be caused by unregulated developments of artificial intelligence. Guiding principles are being developed around the world to foster trustworthy development and application of artificial intelligence systems. These guidelines can support developers and governing authorities when making decisions about the use of artificial intelligence. The High-Level Expert Group on Artificial Intelligence set up by the European Commission launched the report Ethical guidelines for trustworthy artificial intelligence in2019. The report aims to contribute to reflections and the discussion on the ethics of artificial intelligence technologies also beyond the countries of the European Union (EU). In this paper, we use the global health sector as a case and argue that the EU's guidance leaves too much room for local, contextualized discretion for it to foster trustworthy artificial intelligence globally. We point to the urgency of shared globalized efforts to safeguard against the potential harms of artificial intelligence technologies in health care.


L'intelligence artificielle regorge de potentiel en matière d'interventions préventives et curatives précises, efficaces et bénéfiques. Mais par la même occasion, elle présente certains risques et peut s'avérer nocive si son développement n'est pas encadré par des règles. Partout dans le monde, des principes directeurs sont instaurés afin de promouvoir un niveau de fiabilité optimal dans l'évolution et l'application des systèmes basés sur l'intelligence artificielle. Ces principes peuvent aider les développeurs et les autorités gouvernementales à prendre des décisions relatives à l'intelligence artificielle. Le Groupe d'experts de haut niveau sur l'intelligence artificielle créé par la Commission européenne a récemment publié un rapport intitulé Lignes directrices en matière d'éthique pour une IA digne de confiance. Objectif de ce rapport : contribuer aux réflexions et discussions portant sur l'éthique des technologies fondées sur l'intelligence artificielle, y compris dans les pays n'appartenant pas à l'Union européenne (UE). Dans ce document, nous utilisons le secteur mondial de la santé comme exemple et estimons que les directives de l'UE accordent un pouvoir discrétionnaire trop important aux autorités locales et au contexte pour véritablement encourager la fiabilité de l'intelligence artificielle dans le monde. Nous insistons également sur l'urgence de mettre en place une protection globale commune contre les éventuels préjudices liés aux technologies d'intelligence artificielle dans le domaine des soins de santé.


La inteligencia artificial es muy prometedora en términos de intervenciones preventivas y curativas beneficiosas, precisas y eficaces. Al mismo tiempo, también hay conciencia de los posibles riesgos y daños que pueden causar los desarrollos no regulados de la inteligencia artificial. Se están elaborando principios fundamentales en todo el mundo para fomentar el desarrollo y la aplicación confiables de los sistemas de inteligencia artificial. Estas directrices pueden servir de apoyo a los desarrolladores y a las autoridades gobernantes en la toma de decisiones sobre el uso de la inteligencia artificial. El Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial establecido por la Comisión Europea ha publicado recientemente el informe Ethical guidelines for trustworthy artificial intelligence (Directrices éticas para una inteligencia artificial confiable). El informe tiene por objeto contribuir a la reflexión y el debate sobre la ética de las tecnologías de inteligencia artificial incluso más allá de los países de la Unión Europea (UE). En este documento, se recurre al sector sanitario mundial como caso de referencia y se argumenta que las directrices de la UE conceden demasiado margen a la discreción local y contextualizada como para fomentar una inteligencia artificial confiable a nivel mundial. Se destaca la urgencia de compartir los esfuerzos internacionales para protegerse de los posibles daños de las tecnologías de inteligencia artificial en la atención sanitaria.


Assuntos
Inteligência Artificial , Atenção à Saúde , Confiança , União Europeia , Objetivos
3.
J Med Ethics ; 45(4): 257-264, 2019 04.
Artigo em Inglês | MEDLINE | ID: mdl-30630970

RESUMO

The realm of non-rational influence, which includes nudging, is home to many other morally interesting phenomena. In this paper, I introduce the term bumping, to discuss the category of unintentional non-rational influence. Bumping happens constantly, wherever people make choices in environments where they are affected by other people. For instance, doctors will often bump their patients as patients make choices about what treatments to pursue. In some cases, these bumps will systematically tend to make patients' decisions worse. Put another way: doctors will sometimes harm their patients by bumping them in systematic (although still unintentional) ways. I use the case of medical overuse, the provision of medical services where the likely harm outweighs the likely benefit to the patient, as a touchstone for arguing that doctors who systematically bump their patients towards harm can be blameworthy for their unwitting influence.


Assuntos
Relações Médico-Paciente/ética , Médicos/ética , Atitude do Pessoal de Saúde , Dissidências e Disputas , Ética Médica , Humanos , Obrigações Morais , Princípios Morais , Comunicação Persuasiva , Autonomia Profissional , Medição de Risco
SELEÇÃO DE REFERÊNCIAS
DETALHE DA PESQUISA
...