; RUN: llvm-as < %s | llvm-dis > %t.orig ; RUN: llvm-as < %s | llvm-c-test --echo > %t.echo ; RUN: diff -w %t.orig %t.echo ; source_filename = "/test/Bindings/float_ops.ll" target datalayout = "e-m:o-i64:64-f80:128-n8:16:32:64-S128" define float @float_ops_f32(float %a, float %b) { %1 = fneg float %a %2 = fadd float %a, %b %3 = fsub float %a, %b %4 = fmul float %a, %b %5 = fdiv float %a, %b %6 = frem float %a, %b ret float %1 } define double @float_ops_f64(double %a, double %b) { %1 = fneg double %a %2 = fadd double %a, %b %3 = fsub double %a, %b %4 = fmul double %a, %b %5 = fdiv double %a, %b %6 = frem double %a, %b ret double %1 } define void @float_cmp_f32(float %a, float %b) { %1 = fcmp oeq float %a, %b %2 = fcmp ogt float %a, %b %3 = fcmp olt float %a, %b %4 = fcmp ole float %a, %b %5 = fcmp one float %a, %b %6 = fcmp ueq float %a, %b %7 = fcmp ugt float %a, %b %8 = fcmp ult float %a, %b %9 = fcmp ule float %a, %b %10 = fcmp une float %a, %b %11 = fcmp ord float %a, %b %12 = fcmp false float %a, %b %13 = fcmp true float %a, %b ret void } define void @float_cmp_f64(double %a, double %b) { %1 = fcmp oeq double %a, %b %2 = fcmp ogt double %a, %b %3 = fcmp olt double %a, %b %4 = fcmp ole double %a, %b %5 = fcmp one double %a, %b %6 = fcmp ueq double %a, %b %7 = fcmp ugt double %a, %b %8 = fcmp ult double %a, %b %9 = fcmp ule double %a, %b %10 = fcmp une double %a, %b %11 = fcmp ord double %a, %b %12 = fcmp false double %a, %b %13 = fcmp true double %a, %b ret void } define void @float_cmp_fast_f32(float %a, float %b) { %1 = fcmp fast oeq float %a, %b %2 = fcmp nsz ogt float %a, %b %3 = fcmp nsz nnan olt float %a, %b %4 = fcmp contract ole float %a, %b %5 = fcmp nnan one float %a, %b %6 = fcmp nnan ninf nsz ueq float %a, %b %7 = fcmp arcp ugt float %a, %b %8 = fcmp fast ult float %a, %b %9 = fcmp fast ule float %a, %b %10 = fcmp fast une float %a, %b %11 = fcmp fast ord float %a, %b %12 = fcmp nnan ninf false float %a, %b %13 = fcmp nnan ninf true float %a, %b ret void } define void @float_cmp_fast_f64(double %a, double %b) { %1 = fcmp fast oeq double %a, %b %2 = fcmp nsz ogt double %a, %b %3 = fcmp nsz nnan olt double %a, %b %4 = fcmp contract ole double %a, %b %5 = fcmp nnan one double %a, %b %6 = fcmp nnan ninf nsz ueq double %a, %b %7 = fcmp arcp ugt double %a, %b %8 = fcmp fast ult double %a, %b %9 = fcmp fast ule double %a, %b %10 = fcmp fast une double %a, %b %11 = fcmp fast ord double %a, %b %12 = fcmp nnan ninf false double %a, %b %13 = fcmp nnan ninf true double %a, %b ret void } define float @float_ops_fast_f32(float %a, float %b) { %1 = fneg nnan float %a %2 = fadd ninf float %a, %b %3 = fsub nsz float %a, %b %4 = fmul arcp float %a, %b %5 = fdiv contract float %a, %b %6 = frem afn float %a, %b %7 = fadd reassoc float %a, %b %8 = fadd reassoc float %7, %b %9 = fadd fast float %a, %b %10 = fadd nnan nsz float %a, %b %11 = frem nnan nsz float %a, %b %12 = fdiv nnan nsz arcp float %a, %b %13 = fmul nnan nsz ninf contract float %a, %b %14 = fmul nnan nsz ninf arcp contract afn reassoc float %a, %b ret float %1 } define double @float_ops_fast_f64(double %a, double %b) { %1 = fneg nnan double %a %2 = fadd ninf double %a, %b %3 = fsub nsz double %a, %b %4 = fmul arcp double %a, %b %5 = fdiv contract double %a, %b %6 = frem afn double %a, %b %7 = fadd reassoc double %a, %b %8 = fadd reassoc double %7, %b %9 = fadd fast double %a, %b %10 = fadd nnan nsz double %a, %b %11 = frem nnan nsz double %a, %b %12 = fdiv nnan nsz arcp double %a, %b %13 = fmul nnan nsz ninf contract double %a, %b %14 = fmul nnan nsz ninf arcp contract afn reassoc double %a, %b ret double %1 }