Cuando se trata de inteligencia artificial, no caigas en la trampa de la caja mágica

Las computadoras no son inteligentes.

Para mí, la guerra contra el mito de la inteligencia informática comenzó en noveno grado, cuando alguien en mi clase comenzó a hablar sobre lo inteligente que era su computadora. Este comentario me hizo enojar. Inmediatamente pensé, ¿alguien piensa que un montón de esquemas son inteligentes?

Atribuir inteligencia de balde de pernos es un error cognitivo en sí mismo. La computadora no piensa; estas son instrucciones de procesamiento. Seamos claros: el intelecto humano estructura estas instrucciones y actúa fuera de ellas; las computadoras no pueden. Sin embargo, las computadoras pueden acelerar.

Si no tenemos cuidado, la tecnología acelera acciones dañinas. Como personas con productos, nuestro trabajo es ser gerentes de tecnología. No podemos permitirnos esta aceleración dañina. Como escribe Emma Sezer en su Discurso sobre el colonialismo«Nadie coloniza a los inocentes, nadie coloniza impunemente».

La tecnología se está acelerando. O estás acelerando la reducción del daño o, como dijo Sezer, eres un participante activo en la aceleración del daño a otras personas. Como técnicos, debemos recordar lo que hacemos. El mundo en su conjunto aún no se ha retirado del actual proyecto colonial de explotación y extracción de mano de obra de los grupos colonizados. Si la tecnología va a cumplir su ideal de democratización, no puede ser sólo consignas.

Y eso es lo que estoy haciendo aquí: ayudarlo a lograr mejores resultados enseñándole a actuar con mejores principios. Evitaremos consignas a favor de soluciones efectivas que separen la inteligencia del proceso. Una vez al mes, identificaré algunas tecnologías en términos de administración de productos y luego le daré algunos marcadores para que abandone el sesgo y tome decisiones informadas. El objetivo final es ayudarlo, como PdM, a aumentar sus posibilidades de éxito en el desarrollo de productos.

Hablando de «computadoras inteligentes», ahora es un buen momento para hablar de IA. Con GPT-3 en boga, la IA continúa prosperando. Con esta fascinación surgieron un montón de ideas sobre cómo y por qué debería usar la IA para tomar decisiones de productos para la eficiencia.

El equipo detrás del modelo tomó 175 mil millones de parámetros, muchos de Wikipedia y Reddit, y han creado un modelo que puede proporcionar texto con resultados sorprendentes. Por supuesto, aunque el libro blanco del equipo explica bien las ventajas y desventajas de usar el modelo, la gente sigue cayendo en la misma trampa que mi compañero de clase, pensando que la previsión es una forma de inteligencia, no lo que realmente son: buenas conjeturas aprendidas.

Dado que tanta gente ahora está interesada en el modelo y la IA en general, quiero advertir sobre los peligros de lo que llamo la «caja mágica». Si no aborda este problema ahora, se encontrará en el centro del infierno cognitivo dentro del desarrollo de su producto.

Lectura relacionada¿Por qué GPT-3 presagia una revolución democrática en tecnología?

Caja Magica

Si alguna vez miró un proceso de inteligencia artificial y se preguntó: «¿Qué está pasando allí?» y nadie puede responder a su pregunta, usted puede estar en el centro de lo que yo llamo el error de la «caja mágica». Esto sucede cuando alguien envía una entrada a una herramienta/objeto/persona y simplemente confía en el resultado sin comprender el proceso.

Informe de la Universidad de Oxford, AI @ Work enfatiza este error en la acción. Los autores identifican tres problemas que surgieron al trabajar con IA:

1) Los problemas de integración surgen cuando los entornos aún no están preparados para el uso de la inteligencia artificial, o cuando estas tecnologías operan en una brecha entre los empleados y sus empleadores.

2) Los problemas de adicción surgen debido a la dependencia excesiva e insuficiente de la IA en los sistemas de trabajo.

3) Los problemas con la transparencia… surgen cuando el trabajo requerido por estos sistemas, y donde se realiza este trabajo, no es transparente para los usuarios.

El informe revela perfectamente la «caja mágica» que puede ser la IA, especialmente cuando se trata de la IA y la agencia de los empleados (es decir, ) sobre la toma de decisiones. Los estudios de casos en el informe muestran el daño que hacen las empresas cuando terminan gastando sus recursos persiguiendo gansos salvajes o terminan construyendo sistemas sin escala.

Recuerde, la tecnología se está acelerando.

Quiero centrarme en la segunda conclusión de este artículo, porque es una definición bastante buena de cómo funciona la «caja mágica» en el mundo de la IA. En particular, quiero considerar cómo identificar estas cajas mágicas en tu empresa, cómo afectan el desarrollo de tu producto y cómo no puedes caer en la trampa.

Definición de cajas mágicas.

La forma más sencilla de comprobar si su empresa tiene una «caja mágica» de pensamiento es la idoneidad de su solución. ¿Con qué frecuencia verifican que sus decisiones estén alineadas con sus objetivos? Si hacemos la pregunta: «¿Cómo sabemos que este proceso de inteligencia artificial funciona para servir a nuestros clientes?» trae nada más que un aspecto extraño, les puedo asegurar que la IA es una caja mágica.

Si las personas no parecen confundidas, pregunte si existe un proceso que determine si las decisiones básicas que toma la IA son consistentes con el comportamiento esperado. ¿Suena como mucho trabajo? Bueno, aquí hay una alternativa.

Cómo las cajas mágicas destruyen el desarrollo de su producto

Una cosa que aprecio en «AI @ Work cuán directo es el informe cuando se trata del daño que los sistemas de inteligencia artificial pueden causar cuando se ejecutan sin control. Aquí hay algunas cosas que puedes reconocer.

Optimización de compensación: Las personas, especialmente los no especialistas, creen que la IA siempre tiene razón sin investigarla. Los usuarios confían ciegamente en la inteligencia artificial, incluidos aquellos que se ven afectados internamente. Una vez que se configura la IA, se convierte en un «cohete tonto» y se optimizará sin contexto. Esta estructura es peligrosa, porque si todo va hacia arriba y hacia la derecha, por así decirlo, tendemos a ver el movimiento como un progreso. Las personas basarán sus decisiones en lo que hace esta IA. Mostramos prejuicios sobre el automóvil porque estienes sentimientos desagradables, incluso si pueden tomar malas decisiones.

Prejuicio contra la simplicidad: AI suaviza la solución al elegir entre los dos caminos. Cuanto más «abierta» la solución, peor es la IA. El artículo GPT-3 lo demuestra bien en la sección de matemáticas. El modelo es excelente para sumar dos números; agrega un tercero y todo aparecerá. Si usa IA para la toma de decisiones, es importante saber qué resuelve y si no simplifica.

Deshabilitar cliente: Tu cliente interactúa con la inteligencia artificial y deja de comunicarse contigo por completo. Si agregas las dos primeras cosas que mencioné aquí, te darás cuenta de lo grande que es. Como gente de productos, nuestro trabajo es que el cliente confíe en nosotros para que podamos garantizar la coherencia en el desarrollo de productos. AI «Magic Box» nos aleja de esto.

Evita la caja mágica

Volvamos a quién es el responsable de los resultados.

Si nadie levanta la mano, bien. gerente de producto, depende de usted. Como responsable de la coordinación en la organización, la coordinación del uso de la herramienta (IA) para obtener resultados (resultados comerciales) depende en gran medida de usted.

¿Entonces que puedes hacer?

  • Supongamos que una IA es un cohete estúpido. Ahí es donde está el concepto. hombre en una soga es tan importante Una persona debe estar en algún lugar de cualquier proceso de IA. Realmente, combinación de humano e IA Se ha demostrado que es mejor que la inteligencia artificial o el hombre solo. Actúa como esta persona. Ayude a administrar sus sistemas de inteligencia artificial para tener más confianza en llegar al punto. Si no lo hace, es más probable que esté optimizando para algo incorrecto.
  • Explique las decisiones que toma AI usando el proceso de mapeo. Tomar mapeo de viajes o dibujos de servicio, ejemplo. Trabaje a través de «mapas» o describa los procesos de toma de decisiones. Ambas son herramientas diseñadas para arrojar luz sobre las decisiones que toman los clientes (tarjeta de viaje) o las empresas (planificación de servicios).
  • Comuníquese periódicamente con sus clientes. Esté atento a los clientes que usan su servicio de inteligencia artificial y pruebe los controles a través de entrevistas con usuarios que han completado y fallado (hola, Facebook y otras herramientas). Esto te permitirá ser honesto, porque la inteligencia artificial es una herramienta para resolver los problemas de los clientes, y eso es todo.

La IA es buena, pero no dejes que la Caja Mágica gane

Como suele decirse, no hay almuerzo gratis. La IA no es diferente. Esono es una solución ideal para diseñar su producto sin fallas.

Si no trata de entender cómo usar las herramientas de servicio al cliente y cómo construir operaciones para comprender, mejorar y decidir alinear estas necesidades con el negocio, enfrentará una alta probabilidad de optimización inútil y desconexión del cliente.

Todas estas cosas son herramientas.

La IA, cuando se usa correctamente, es una forma fantástica de hacer que sus operaciones sean más eficientes. Si no entiende lo que está utilizando, caerá en trampas que pueden hundir su negocio, incluida una «caja mágica» que destruirá sus operaciones.

Más de nuestros expertos¿Por qué fracasan los proyectos de aprendizaje automático?

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *